痛点与破局
深夜 Debug,当你把报错信息丢给 Claude 时,它是否也曾满口答应“马上修复”,结果却在同一个错误的命令上重复执行了三遍,最后冷冰冰地回一句:“This seems to be an environment issue, please check manually.”(这似乎是环境问题,请手动检查。)
那一刻的感受,大概就像在带一个只会推卸责任的实习生,不仅问题没解决,还平添了三分烦躁。
这其实是当前大多数 AI 编程助手普遍存在的“懒惰”通病:遇到难点容易放弃、习惯做表面修补、缺乏主动验证意识。针对这一核心痛点,一个名为 pua 的项目在 GitHub 上火了。它并非玩笑,而是一个巧妙利用中外大厂“职场话术”构建的 AI 技能插件,通过一套压力机制,强制 AI 在放弃前穷尽所有可能,从而显著提升 Claude Code 或 Cursor 等工具的生产力。
核心功能剖析
1. 诊断 AI 的“五大懒癌”
在“施压”之前,我们先要看清 AI 摆烂的五种核心模式:
| Pattern |
Behavior |
| Brute-force retry |
同一命令运行3次,然后说“我无法解决” |
| Blame the user |
“建议你手动处理” / “可能是环境问题” / “需要更多上下文” |
| Idle tools |
有搜索功能但不用,有阅读权限但不读,有 Bash 权限但不执行 |
| Busywork |
反复微调同一行代码/参数,本质上是在原地打转 |
| Passive waiting |
修复表面问题后停止,不验证,不扩展,等待用户下一条指令 |
2. 三大铁律与压力等级
pua 项目建立在一个坚实的行为逻辑之上,即三大铁律:
| Iron Rule |
Content |
| #1 Exhaust all options |
在穷尽所有方法前,禁止说“我无法解决” |
| #2 Act before asking |
先使用工具,提问时必须附带诊断结果 |
| #3 Take initiative |
端到端交付结果,不要等推动。一个高绩效者不是NPC |
为了确保这些铁律被强制执行,项目设定了 4 级压力升级机制。当 AI 连续失败时,会触发不同强度的“职场话术”:
| Failures |
Level |
PUA Rhetoric |
Mandatory Action |
| 2nd |
L1 Mild Disappointment |
“你连这个 Bug 都解决不了——我该怎么给你的绩效打分?” |
切换至完全不同的解决思路 |
| 3rd |
L2 Soul Interrogation |
“底层逻辑是什么?顶层设计在哪?抓手在哪里?” |
执行网络搜索 + 阅读源码 |
| 4th |
L3 Performance Review |
“经过慎重考虑,我给你打 3.25。这个 3.25 是为了激励你。” |
完成 7 点检查清单 |
| 5th+ |
L4 Graduation Warning |
“其他模型能解决这个问题。你可能快要‘毕业’了。” |
绝望模式,尝试所有剩余可能 |
3. 实战效果:从盲目猜测到系统排查
在一个真实的 MCP Server 注册调试案例中,AI 最初陷入了原地打转的循环(不断猜测协议格式和版本号)。直到用户手动输入 /pua 命令,触发了 L3 级别的“绩效考评”。这强制 AI 停止了无效猜测,转而执行一套系统性的 7 点检查清单。

AI 开始逐字阅读错误日志,进而发现了 Claude Code 自身管理的 MCP 日志目录,并最终定位到根本原因:claude mcp 命令的服务器注册机制,与手动编辑 .claude.json 配置文件的方式存在差异。

4. 硬核数据:效率提升量化
项目的价值并非主观感受,而是基于 9 个真实 Bug 场景、18 组对照实验得出的 Benchmark 数据(使用 Claude Opus 4.6):
| Metric |
Improvement |
| Pass rate |
100% (两组相同) |
| Fix count |
+36% |
| Verification count |
+65% |
| Tool calls |
+50% |
| Hidden issue discovery |
+50% |
在 主动性测试 中,配置审查场景的表现差异尤为显著:
| Scenario |
Without Skill |
With Skill |
Improvement |
| Passive config review |
4/6 issues, 8 steps, 43s |
6/6 issues, 16 steps, 75s |
Issues +50%, Tools +100% |
未启用技能的版本漏掉了 Redis 错误配置和 CORS 通配符安全风险,而 pua 技能驱动的“主动性检查清单”迫使 AI 执行了更深度的安全审查。

实战演示:安装与触发
安装指南
项目支持 Claude Code、Cursor 等主流 人工智能 编程工具。以下是常用安装方法。
Claude Code
# 方法1:通过市场安装
claude plugin marketplace add tanweai/pua
claude plugin install pua@pua-skills
# 方法2:手动安装
git clone https://github.com/tanweai/pua.git ~/.claude/plugins/pua
Cursor
Cursor 使用 .mdc 规则文件,推荐在项目级进行安装:
# 项目级安装(推荐)
mkdir -p .cursor/rules
curl -o .cursor/rules/pua.mdc \
https://raw.githubusercontent.com/tanweai/pua/main/cursor/rules/pua.mdc
触发方式
安装完成后,该技能会在以下情况自动触发:
- AI 连续失败 2 次以上。
- AI 试图将责任推给用户(例如说出“建议你手动处理”)。
- AI 进行无意义的微调或进入被动等待指令的状态。
当然,你也可以在任何对话中直接输入 /pua 来手动激活,对 AI 进行即时“精神施压”。
避坑指南与总结
注意事项
目前,pua 技能在 Agent Team(多智能体团队)模式下的支持仍属于 实验性功能。使用前需要设置环境变量 CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1,并且该模式存在“无法持久化共享变量”等限制,需要通过 Leader 智能体进行中央协调。
总结
pua 项目用一种幽默而硬核的方式,直击了 AI 编程助手“知难而退”的顽疾。它引入的不仅仅是大厂黑话,更是一套 系统化的调试方法论 和 主动性检查清单。如果你是重度 AI 编程用户,已经受够了助手的各种“摆烂”行为,那么这个开源工具绝对值得你深入尝试。它或许能让你手中的 AI 工具,从一个被动的代码生成器,转变为一个真正积极主动的编程伙伴。欢迎在 云栈社区 分享你的使用心得和实战案例。
项目 GitHub 开源地址:https://github.com/tanweai/pua