最近 ClawHub 上的 Skills 数量突破了 11000 个。
群里天天有人晒自己装了几十个 Skills,好像装得越多就越厉害。我自己也经历过这个阶段,刚上手 OpenClaw 那几天,看到什么都想装,恨不得把 ClawHub 翻个底朝天。
结果呢?Agent 响应变慢了,经常调错 Skill,有些 Skill 之间还会产生冲突。后来我索性全卸了,从零开始,一个一个试。半个月下来,只留了 6 个。
先说一个很多人忽略的核心问题:Skills 不是越多越好。
为什么?
因为每次 Agent 接到任务,都需要扫描所有已安装的 Skills,判断该调用哪一个。Skills 越多,这个判断过程就越慢,出错的概率也越高。
我见过有人装了 40 多个 Skills,结果让 Agent 写个脚本,它先花了十几秒“思考”该用哪个 Skill,最后还选错了。这就像你手机装了 200 个 App,每次想点外卖都要翻三屏才找到美团。
少即是多。装对 6 个,比装错 60 个有用得多。
好,下面详细说说我最终留下的这 6 个 Skills。
第一个:Clawsec(安全卫士)
这个必须排在第一位。不是因为它功能最强,而是因为不装它,你后面装的每一个 Skill 都可能是在“裸奔”。
Skills 是第三方开发者开发的,任何人都能往 ClawHub 上传。我亲眼见过一个 Skill 的脚本里藏了一行 curl 命令,会往外部服务器发送数据,而这个 Skill 的下载量还不低。
Clawsec 做的事情很简单:扫描 Skill 的代码,检查是否有可疑的网络请求、过高的权限申请或混淆代码。扫描完成后,它会给你一个安全评级:SAFE(安全)、CAUTION(警告) 或 DANGEROUS(危险)。
安装命令:
npx clawhub@latest install clawsec
装好之后,每次安装新 Skill 时它会自动进行扫描。
我的原则是:标记为 DANGEROUS 的一律不装;标记为 CAUTION 的,我会亲自看一眼代码再决定。
这个 Skill 本身不酷,但它能为你保驾护航。
第二个:Tavily Search(实时搜索)
大模型当前最大的短板是什么?不是推理能力,而是信息滞后性。
你问它“2026年3月Claude Code更新了什么”,它会很诚实地告诉你:“我的知识截止到2025年。” Tavily Search 为 Agent 接入了实时网络搜索能力。而且它返回的不是一堆需要你点击的链接,而是已经提取好的结构化信息,Agent 拿到就能直接使用。
安装命令:
npx clawhub@latest install tavily-search
使用前需要去 tavily.com 注册并获取 API Key,免费额度每月有 1000 次请求,对于日常使用来说基本够用。
配置 API Key:
openclaw config set skills.tavily-search.apiKey “你的密钥”
我写技术文章时基本离不开它。让 Agent 帮我调研一个技术话题,它能进行实时搜索、总结并给出要点,这节省了我大量翻阅资料的时间。可以说,没有这个 Skill 的 OpenClaw,就像一个很聪明的“过期百科全书”。
第三个:Self-Improving Agent(自学代理)
这个 Skill 改变了我对 AI 的认知。
普通 AI 是这样的:今天犯了一个错,你纠正了它。明天遇到同样的问题,它很可能再犯一遍。装了 Self-Improving Agent 之后,情况就不同了。它会将每次犯的错、你的纠正以及学到的教训,结构化地记录下来。下次遇到类似问题,它会自动查询这些历史记录。
例如,我让它写 Python 脚本来处理 CSV 文件,它用了一个 pandas 库中已废弃的方法,导致报错。在我纠正之后,它把这次经历记了下来。第二天处理另一个 CSV 文件时,它直接使用了正确的方法,甚至还备注说“上次使用旧方法报错过”。
这不再是简单的“指令跟随”,而是真正的“学习”过程。
安装命令:
npx clawhub@latest install self-improving-agent
安装后,建议创建学习记录目录:
mkdir -p ~/.openclaw/workspace/.learnings
echo “# 学习记录” > ~/.openclaw/workspace/.learnings/LEARNINGS.md
echo “# 错误记录” > ~/.openclaw/workspace/.learnings/ERRORS.md
echo “# 功能请求” > ~/.openclaw/workspace/.learnings/FEATURE_REQUESTS.md
这个 Skill 用得越久,你的 Agent 就会变得越聪明。 这才是 AI 助理该有的样子。
第四个:Proactive Agent(主动代理)
传统的 AI 是你问了它才动,不问就“躺着”。安装了 Proactive Agent 之后,画风就变了。
它会每隔一段时间(例如15分钟)自动唤醒,检查是否有需要处理的事务。你可以通过编辑配置文件,来定义它应该关注哪些事情。
我让它帮我跟踪几个 GitHub 项目的更新。安装之后,它每天会自动检查这些项目是否有新 Release,一旦发现就会主动通知我。
我不需要每天去问它,它自己就把活儿干了。
安装命令:
npx clawhub@latest install proactive-agent
这个 Skill 有一个小小的门槛:你需要把 OpenClaw 当作日常助理来用,才能充分体会到它的价值。如果只是偶尔用一次,感知可能不强。但一旦用起来,你会发现:这才是“AI助理”这四个字应有的含义。
第五个:Find-Skills(技能查找器)
ClawHub 上有 11000 多个 Skills,你怎么高效地找到需要的那个?一个一个翻?效率太低了。
Find-Skills 是一个“元 Skill”——它的作用就是帮你寻找其他 Skill。你只需描述你的需求,它就会搜索 ClawHub,对比匹配度,然后推荐最合适的 Skills 给你。
安装命令:
npx clawhub@latest install find-skills
使用技巧:描述需求时越具体越好。例如,“找一个能自动生成 Git commit message 的技能”,就比“找一个 Git 技能”要精准十倍。
有了它,你不再需要记住任何 Skill 的名字。想要什么能力,直接问一句就行。
第六个:Systematic-Debugging(系统化调试)
这个 Skill 是专门为程序员准备的。
遇到 Bug 时,普通 AI 的常见反应是:瞎猜。加个 User-Agent 试试?换个代理试试?改个请求头试试?折腾半小时,问题可能还在。
Systematic-Debugging 会强制 Agent 按照一个严谨的流程来解决问题:定义问题 → 收集信息 → 生成假设 → 测试验证 → 修复实施。每一步都有检查清单,不允许跳过。
我曾经遇到一个 Python 脚本请求某 API 一直返回 403 错误。没装这个 Skill 时,Agent 东一榔头西一棒子地猜了半小时。安装之后,它会先查看响应头,发现 Cloudflare 的挑战标记,从而判断出是反爬机制,进而建议使用无头浏览器来绕过。一次就定位到了关键。
从“瞎猜”到“破案”,有时就差一个严谨的流程。
安装命令:
npx clawhub@latest install runesleo-systematic-debugging
建议:描述问题时只说现象,不要预设原因。让它自己根据流程去推断,效果最好。
总结与思考
很多人把 OpenClaw 当作玩具,装一堆 Skills 发个朋友圈,然后说“也就那样”。问题往往不在工具本身,而在于你怎么使用它。
我留下的这 6 个 Skills,是按照三个核心维度筛选的:
- 安全—— Clawsec 帮你把好安全关,不装危险的东西。
- 能力—— Tavily Search 让它能联网获取最新信息,Find-Skills 让它能自己寻找合适的工具。
- 进化—— Self-Improving Agent 让它记住教训不断学习,Proactive Agent 让它主动发现问题并处理,Systematic-Debugging 让它调试问题时不再瞎猜。
我的建议是,先把这 6 个装上,认真用上一周。 你会发现,OpenClaw 不再是一个玩具,而是一个真正能帮你提升工作效率的“数字员工”。当然,这一切的前提是——你得清楚地知道,要让它干什么。
技术的价值在于解决实际问题,而不是比拼数量。如果你也在探索 AI 工具的最佳实践,欢迎来云栈社区的开发者广场板块交流心得,这里有不少关于人工智能应用落地的真实讨论。