找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4470

积分

1

好友

612

主题
发表于 1 小时前 | 查看: 5| 回复: 0

痛点与破局

深夜 Debug,当你把报错信息丢给 Claude 时,它是否也曾满口答应“马上修复”,结果却在同一个错误的命令上重复执行了三遍,最后冷冰冰地回一句:“This seems to be an environment issue, please check manually.”(这似乎是环境问题,请手动检查。)

那一刻的感受,大概就像在带一个只会推卸责任的实习生,不仅问题没解决,还平添了三分烦躁。

这其实是当前大多数 AI 编程助手普遍存在的“懒惰”通病:遇到难点容易放弃、习惯做表面修补、缺乏主动验证意识。针对这一核心痛点,一个名为 pua 的项目在 GitHub 上火了。它并非玩笑,而是一个巧妙利用中外大厂“职场话术”构建的 AI 技能插件,通过一套压力机制,强制 AI 在放弃前穷尽所有可能,从而显著提升 Claude CodeCursor 等工具的生产力。

核心功能剖析

1. 诊断 AI 的“五大懒癌”

在“施压”之前,我们先要看清 AI 摆烂的五种核心模式:

Pattern Behavior
Brute-force retry 同一命令运行3次,然后说“我无法解决”
Blame the user “建议你手动处理” / “可能是环境问题” / “需要更多上下文”
Idle tools 有搜索功能但不用,有阅读权限但不读,有 Bash 权限但不执行
Busywork 反复微调同一行代码/参数,本质上是在原地打转
Passive waiting 修复表面问题后停止,不验证,不扩展,等待用户下一条指令

2. 三大铁律与压力等级

pua 项目建立在一个坚实的行为逻辑之上,即三大铁律:

Iron Rule Content
#1 Exhaust all options 在穷尽所有方法前,禁止说“我无法解决”
#2 Act before asking 先使用工具,提问时必须附带诊断结果
#3 Take initiative 端到端交付结果,不要等推动。一个高绩效者不是NPC

为了确保这些铁律被强制执行,项目设定了 4 级压力升级机制。当 AI 连续失败时,会触发不同强度的“职场话术”:

Failures Level PUA Rhetoric Mandatory Action
2nd L1 Mild Disappointment “你连这个 Bug 都解决不了——我该怎么给你的绩效打分?” 切换至完全不同的解决思路
3rd L2 Soul Interrogation “底层逻辑是什么?顶层设计在哪?抓手在哪里?” 执行网络搜索 + 阅读源码
4th L3 Performance Review “经过慎重考虑,我给你打 3.25。这个 3.25 是为了激励你。” 完成 7 点检查清单
5th+ L4 Graduation Warning “其他模型能解决这个问题。你可能快要‘毕业’了。” 绝望模式,尝试所有剩余可能

3. 实战效果:从盲目猜测到系统排查

在一个真实的 MCP Server 注册调试案例中,AI 最初陷入了原地打转的循环(不断猜测协议格式和版本号)。直到用户手动输入 /pua 命令,触发了 L3 级别的“绩效考评”。这强制 AI 停止了无效猜测,转而执行一套系统性的 7 点检查清单。

PUA L3 触发后,AI停止猜测并执行检查清单,在MCP日志中发现真实错误

AI 开始逐字阅读错误日志,进而发现了 Claude Code 自身管理的 MCP 日志目录,并最终定位到根本原因:claude mcp 命令的服务器注册机制,与手动编辑 .claude.json 配置文件的方式存在差异。

根本原因定位:claude mcp 托管注册与手动编辑 .claude.json 存在机制差异

4. 硬核数据:效率提升量化

项目的价值并非主观感受,而是基于 9 个真实 Bug 场景、18 组对照实验得出的 Benchmark 数据(使用 Claude Opus 4.6):

Metric Improvement
Pass rate 100% (两组相同)
Fix count +36%
Verification count +65%
Tool calls +50%
Hidden issue discovery +50%

主动性测试 中,配置审查场景的表现差异尤为显著:

Scenario Without Skill With Skill Improvement
Passive config review 4/6 issues, 8 steps, 43s 6/6 issues, 16 steps, 75s Issues +50%, Tools +100%

未启用技能的版本漏掉了 Redis 错误配置和 CORS 通配符安全风险,而 pua 技能驱动的“主动性检查清单”迫使 AI 执行了更深度的安全审查。

对话回溯:PUA 技能强制停止了原地打转,系统化检查清单驱动发现了之前未查看的 Claude Code MCP 日志目录

实战演示:安装与触发

安装指南

项目支持 Claude CodeCursor 等主流 人工智能 编程工具。以下是常用安装方法。

Claude Code

# 方法1:通过市场安装
claude plugin marketplace add tanweai/pua
claude plugin install pua@pua-skills

# 方法2:手动安装
git clone https://github.com/tanweai/pua.git ~/.claude/plugins/pua

Cursor

Cursor 使用 .mdc 规则文件,推荐在项目级进行安装:

# 项目级安装(推荐)
mkdir -p .cursor/rules
curl -o .cursor/rules/pua.mdc \
  https://raw.githubusercontent.com/tanweai/pua/main/cursor/rules/pua.mdc

触发方式

安装完成后,该技能会在以下情况自动触发:

  1. AI 连续失败 2 次以上。
  2. AI 试图将责任推给用户(例如说出“建议你手动处理”)。
  3. AI 进行无意义的微调或进入被动等待指令的状态。

当然,你也可以在任何对话中直接输入 /pua 来手动激活,对 AI 进行即时“精神施压”。

避坑指南与总结

注意事项

目前,pua 技能在 Agent Team(多智能体团队)模式下的支持仍属于 实验性功能。使用前需要设置环境变量 CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1,并且该模式存在“无法持久化共享变量”等限制,需要通过 Leader 智能体进行中央协调。

总结

pua 项目用一种幽默而硬核的方式,直击了 AI 编程助手“知难而退”的顽疾。它引入的不仅仅是大厂黑话,更是一套 系统化的调试方法论主动性检查清单。如果你是重度 AI 编程用户,已经受够了助手的各种“摆烂”行为,那么这个开源工具绝对值得你深入尝试。它或许能让你手中的 AI 工具,从一个被动的代码生成器,转变为一个真正积极主动的编程伙伴。欢迎在 云栈社区 分享你的使用心得和实战案例。

项目 GitHub 开源地址:https://github.com/tanweai/pua




上一篇:MLCC电容啸叫的成因与金属支架减振方案解析
下一篇:Python NumPy dtype数据类型详解:从基础到结构化数组指南
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-15 19:35 , Processed in 0.451763 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表