Claude Code 近期遭遇了“被动开源”。可以预见,接下来一段时间,围绕它展开的国产化编码工具将会迎来一波集中升级。
我们今天不深入源码,而是聚焦于实际可用的 Skill(技能)。当人人都能部署自己的 Claude Code 实例后(虽然泄露的源码有所缺失,但开源社区已有项目补全了部署环节),学习和借鉴其核心的 Harness Engineering 设计思路固然重要。
然而,剩下非常关键的一环便是插件与技能生态。Skill 的质量直接决定了工具的上手体验和最终效果。作为深度使用 Claude Code 超过一年的用户,我安装又卸载了数十个 Skill/Plugin,最终沉淀下来十个使用频率最高、效果最显著的。每个都附上安装命令,你可以直接拿来使用。
关于 Skill 和 Plugin 的区别简单说明一下:Skill 本质上是一个包含 SKILL.md 说明文件的文件夹,用于指导 Claude 如何处理特定类型的任务。Plugin 则更为完整,可能包含自定义命令、子智能体(SubAgent)、钩子(Hook)或 MCP 服务器等。但在实际使用感受上,二者差别不大,下文将不作严格区分。
顺带一提,这些 Skill 在 Codex、OpenCode 等其他 AI 编程工具中通常也能使用。Skill 机制正在成为 AI 编程工具的标配能力,并非 Claude Code 所独有。
Superpowers
这是我遇到过覆盖面最广、设计最系统的 Skill 集合。
它包含了 20 多个可组合的功能模块,覆盖了从需求讨论、编码、测试到代码提交的完整开发生命周期,每个环节都有对应的规则来约束和引导 Claude 的行为。
对我而言,最有价值的是其 brainstorming(头脑风暴)模块。启用后,Claude 不会再一接到任务就埋头写代码,而是会先与你探讨实现方案,探索不同技术路径,梳理关键决策点,最终产出一份简要的设计文档。这看似多了一个步骤,却极大地减少了后续返工和重构的概率。
另一个离不开的是 TDD(测试驱动开发)模块。它会强制 Claude 先编写测试用例,再实现功能逻辑,并且会持续运行测试直到全部通过。没有这个约束时,Claude 很容易在写完代码后就说“已完成”,而忽略测试的完备性。
需要注意的是,同时启用全部 20 多个模块会给对话上下文带来巨大压力。我的策略是常开两三个核心模块,其他模块则按具体项目需求临时启用。
claude plugin install superpowers
GitHub: https://github.com/obra/superpowers
Ralph Loop
这个 Skill 解决了一个非常具体且恼人的问题:Claude 的“见好就收”。
经常发生这样的情况:你让它实现一个完整功能,它写到一半,自认为“主体框架已完成”,便输出一段“你可以在此基础上继续扩展”的话,然后停止工作。你不得不手动把它“拽”回来继续任务。
Ralph Loop 的机制是利用 Stop Hook 来拦截 Claude 的“收工”行为。当 Claude 试图结束时,Hook 会检查你预先设定的“完成条件”,如果条件未满足,则会将原始任务重新塞回,迫使 Claude 继续工作。
这里有一个关键细节:“完成条件”必须定义得极其具体,不留任何解释空间。
像“完成用户模块”这样的条件,Claude 有无数种方式说服自己已经完成。你必须写成这样:“JWT 登录注册接口可调用、所有单元测试通过、API 文档已更新至 README 文件、完成后必须输出 COMPLETE 标记”。这种明确、可验证的条件才能有效约束 AI。
claude plugin install ralph-loop
# 使用示例
/ralph-loop:ralph-loop "实现用户认证模块。完成标准:JWT 登录注册、测试通过、README 更新。完成后输出 COMPLETE" --max-iterations 20 --completion-promise "COMPLETE"
更多例子参考: https://awesomeclaude.ai/ralph-wiggum
Planning with Files
Claude Code 自带规划模式,但其规划仅存在于对话上下文中。一旦上下文因长度限制被压缩或重置,之前的规划就消失了。在长周期、多步骤的任务中,Claude 很容易中途“迷失”,甚至可能重复已经完成的工作。
这个 Skill 的创新点在于:将所有规划状态持久化到磁盘文件。任务计划、当前进度、过程中发现的关键知识点,全部以 Markdown 文件的形式保存下来。Claude 每完成一步就更新对应的状态文件。这样,即使对话上下文被截断,重新读取这些文件就能立刻恢复到中断前的状态。
这个思路与 Manus 等工具的内部机制异曲同工——Manus 在复杂任务上表现稳定,很大程度上就依赖于其不丢失中间状态的能力。这个 Skill 可以看作是社区实现的同类解决方案。
claude plugin marketplace add OthmanAdi/planning-with-files
claude plugin install planning-with-files
GitHub: https://github.com/OthmanAdi/planning-with-files
Code Review
我认为这是官方 Plugin 中设计思路最巧妙的一个。
它的核心机制不是让单个 Claude 智能体审阅整个 PR,而是并行启动多个专项 Agent,每个 Agent 专注于一个审查维度:例如逻辑漏洞、安全风险、代码风格规范、性能隐患等。
每个专项 Agent 发现问题后,会附上一个“置信度”分数。最后,Plugin 只汇总并展示那些置信度高的、真正需要关注的反馈。
这个设计精准命中了让 AI 做代码审查的核心痛点。如果不对 AI 进行约束,它往往会输出大量“正确的废话”,例如“建议此处增加错误处理”、“请考虑边界情况”。这些建议本身没错,但通常属于过度审查,会带来大量干扰信息。置信度筛选机制有效地过滤掉了这些“噪音”,让开发者聚焦于真正关键的问题。
代价是 Token 消耗较高。多个 Agent 并行运行,对于一个大型 PR 进行一次审查,Token 用量会显著增加。建议先将大 PR 拆分成较小的模块再进行审查。
claude plugin install code-review
GitHub: https://github.com/anthropics/claude-plugins-official/tree/main/plugins/code-review
Code Simplifier
代码写完并通过测试后,人们往往就不愿意再动它了。这是人之常情,也是技术债积累的主要源头之一。
Code Simplifier 做的事情很纯粹:扫描你近期修改过的代码,寻找其中的重复逻辑、冗余变量、可合并的条件分支等,然后执行纯粹的结构性简化。它不改变代码的外部行为,只为了让代码内部更干净、更易于维护。
根据我的使用经验,它最适合处理那种“赶工完成”的代码——功能逻辑已经跑通,但自己心里清楚写得很粗糙,又缺乏动力手动去重构的情况。让它来做个“代码保洁”,效果立竿见影。
claude plugin install code-simplifier
GitHub: https://github.com/anthropics/claude-plugins-official/tree/main/plugins/code-simplifier
UI UX Pro Max
大家想必都见识过 Claude 默认的“AI 审美”:渐变背景、大圆角卡片、居中布局,换个主题色就当是新项目了。
这个 Skill 从根本上改造了 Claude 对于设计系统的认知。
它内置了 67 种 UI 风格和 161 套行业配色方案。它会根据你描述的项目类型(如“数据仪表盘”、“电商首页”、“社交应用”),推荐匹配的设计语言,并从色彩、排版、间距到交互模式提供一套完整的实施方案。
我曾尝试让它为一个数据产品设计后台界面,选择了“Bento Grid”( bento 风格布局),最终生成的页面在视觉层次和专业度上,确实与 Claude 默认产出不在一个水平线上。虽不能说惊艳,但至少第一眼不会被人轻易认出是 AI 生成的。
它对前端技术栈的支持也很广泛,涵盖 React、Vue、Svelte、SwiftUI、Flutter 等。
claude plugin marketplace add nextlevelbuilder/ui-ux-pro-max-skill
claude plugin install ui-ux-pro-max@ui-ux-pro-max-skill
GitHub: https://github.com/nextlevelbuilder/ui-ux-pro-max-skill
Webapp Testing
前端页面开发完成后,手动点击测试既慢又易遗漏,而从零开始编写 Playwright 或 Cypress 测试脚本又显得过于琐碎。
这个 Skill 自动化了这个中间过程:你只需要描述需要测试的用户场景(例如“用户登录后,在仪表板点击报表生成按钮,并导出 PDF”),Claude 便会自动生成对应的 Playwright 测试脚本,启动浏览器,执行测试,并截图记录关键步骤的结果。如果测试失败,它还会尝试自动调试并重试。
它与上面提到的 UI UX Pro Max 搭配使用体验非常流畅——一个负责高质量的前端产出,另一个负责自动化的质量验证。
claude plugin marketplace add anthropics/skills
claude plugin install example-skills@anthropic-agent-skills
GitHub: https://github.com/anthropics/skills/tree/main/skills/webapp-testing
MCP Builder
MCP (Model Context Protocol) 协议的热度无需赘言,它正逐步成为连接大模型与外部工具和数据的标准之一。但从头开始实现一个 MCP Server 仍有一定门槛。
MCP Builder 的价值在于,它将构建流程拆解为四个清晰的引导步骤:
- 理解目标 API:帮助 Claude 分析你要连接的外部服务或工具。
- 设计工具接口:规划 MCP Server 应暴露哪些工具(Tools)。
- 实现 Server 逻辑:生成包含核心逻辑和错误处理的代码。
- 运行验证测试:确保生成的 Server 可以正常运行。
这种分步引导的方式,远比直接给 Claude 一句“帮我写个连接 Jira 的 MCP Server”要可靠得多。最明显的改进是对边界情况的覆盖。在无引导的情况下,Claude 很容易忽略限流、鉴权令牌刷新、超时重试等工程细节。而在 MCP Builder 的引导下,它会主动考虑并处理这些实际问题。
claude plugin marketplace add anthropics/skills
claude plugin install example-skills@anthropic-agent-skills
GitHub: https://github.com/anthropics/skills/tree/main/skills/mcp-builder
PPTX
程序员做 PPT 的痛苦,懂的都懂。
这个 Skill 让 Claude 能够直接生成可编辑的 .pptx 文件,并支持母版、图表、简单的动画效果等元素。
需要客观看待的是,其直接生成的 PPT 在视觉设计和内容深度上,通常达不到直接用于重要汇报的标准,后期的排版和内容打磨仍然是必要的。然而,它的巨大价值在于,彻底跳过了 “对着空白幻灯片发呆” 这个最令人抗拒的起步阶段。有了一个结构清晰、内容完备的初稿作为基础,后续的调整和优化会高效得多。
claude plugin marketplace add anthropics/skills
claude plugin install document-skills@anthropic-agent-skills
GitHub: https://github.com/anthropics/skills/tree/main/skills/pptx
Skill Creator
最后介绍一个“元技能”:由 Anthropic 官方出品的 “制作 Skill 的 Skill”。
它最重要的更新是引入了一个 Eval(评估)框架。以往,自己写完一个 Skill 后,它的实际效果如何、是否真的改善了 Claude 的产出,只能依靠主观感受来判断。
现在,你可以为你的 Skill 编写测试用例,进行 A/B 对比实验,量化评估启用 Skill 前后,Claude 在特定任务上表现的差异。这为 Skill 的开发和迭代提供了科学依据。
如果你尝试了前面九个 Skill 后,仍然觉得有未被满足的特定需求,那么用这个 Skill Creator 自己动手打造一个专属工具,无疑是终极解决方案。
claude plugin install skill-creator
GitHub: https://github.com/anthropics/claude-plugins-official/tree/main/plugins/skill-creator
写在最后
Skill 绝非“多多益善”。安装过多技能可能导致它们之间相互冲突,同时也极易耗尽其有限的上下文窗口。
此次泄露的官方源码也印证了这一点——Anthropic 官方维护的核心插件仓库中,精选的插件数量也控制在十几个,并非无节制地堆砌。
我个人的使用策略是按项目进行分组管理:
- 全局配置:仅安装少数几个通用型、高频使用的技能,如 Superpowers (部分模块)、Ralph Loop、Planning with Files。
- 项目级配置:将与具体项目强相关的 Skill(如某个特定框架的优化技能、项目特有的代码规范)放置在项目目录内,并提交到 Git 仓库中。这样既方便团队成员共享同一套 AI 辅助环境,又不会污染其他无关项目的上下文空间。
从 Claude Code 泄露的源码中学习其 Harness Engineering 的设计精髓,再搭配上述这些经过实战检验的优秀 Skill 所提供的“规则系统”,两者结合学习与实践,方能更全面地提升 AI 辅助编程的效率和效果。
欢迎在 云栈社区 分享你在使用这些或其它 Claude Code Skill 时的心得与技巧。
相关资源: