早上看到刘小排老师分享的《啊啊啊?1天提交了627次代码?》一文时,确实挺震撼。
火爆全球的 OpenClaw 作者 Peter Steinberger 在2月22日当天提交了惊人的 627次 代码,算下来平均每2.3分钟就提交一次。他是怎么做到的?读完整篇文章,核心答案可以用一句话概括:全程依赖AI完成。
这背后并非魔法,而是一套精心设计的工作流。我研究了一下,其核心思路主要包括以下几点:
1. 多Agent并行跑
Peter 之前提到他使用 tmux(一个终端多窗口管理工具)来并行运行多个 AI Agent 实例。现在 Claude 也推出了 Agent Teams/Swarm 功能,这意味着多Agent并行协作的门槛正在变得越来越低。
2. 任务颗粒度要极低
这是实现高频次提交的关键。Peter 自己编写了一个名为 committer 的自定义脚本,并配合一份 800 行的 AGENTS.MD 指令文件来约束 AI 的行为。
这份 AGENTS.MD 文件明确了 AI 在 Git 操作上的规则:
- 使用 Conventional Commits 格式(如 feat、fix、refactor...)提交。
- 只允许使用
committer 工具提交——这个脚本会强制 AI 仅 stage(暂存)它自己修改过的文件。
- 禁止执行
push 操作(除非得到明确指令)。
- 禁止执行
reset、clean 等具有破坏性的 Git 操作。
- 当多个 Agent 并行工作时,提交前必须先执行
git status 确认状态。
通过这套“脚本 + 明确指令”的组合拳,每个 AI 只专注于提交自己那一小部分、颗粒度极细的变更。他的 AGENTS.MD 文件已经开源在:github.com/steipete/agent-scripts。
3. 自动化测试是基础设施
对于这种高频率的、由 AI 驱动的开发模式,全面的自动化测试不再是可选项,而是必须由 AI 维护和验证的基础设施。这一点目前还需要投入更多研究,但它无疑是保证整个工作流可靠性的基石。
这个案例强烈印证了最近听到的一个观点:
AI时代,Token 就是第一生产力;谁能消耗更多的 Tokens,谁就能处于领先地位。
如果现在还有人坚持认为 AI 辅助写代码不靠谱,那或许真的需要重新审视一下这个正在快速迭代的技术领域了。高效的 AI 工作流,本质上是将复杂任务拆解、分配并利用大量计算资源(Token)来加速完成的过程。

对于开发者而言,如何高效地管理和“消耗” Token,正成为提升工作效率的新课题。欢迎在 云栈社区 的 开发者广场 分享你的看法和实践。
|