很多人和 AI 协作时,都会遇到一个现象:
一开始很顺,越做越偏。
AI 并不是不会做,也不是完全胡编。相反,很多时候它太会补全、太会联想、太会发挥。它会沿着自己理解的方向继续扩展,直到结果和人的真实意图发生偏移。
这种偏移,我称之为:
广义幻觉。
广义幻觉不只是事实错误,也包括方向错误、范围错误、语气错误、目标错误、边界错误。
也就是说:
只要模型没有按照预期方向行动,都可以看作一种广义幻觉。
它不是简单的“胡说”,而是“跑偏”。
不是能力不足,而是能力失控。
LLM-立棍要解决的,就是这个问题。
一、什么是 LLM-立棍?
LLM-立棍,指的是:
在 AI 最可能产生广义幻觉的位置,提前建立清晰、稳定、可核验的语义标准。
更简单地说:
先判断 AI 最容易在哪里跑偏,然后在那里插一根标准杆。
这根“棍”不是为了限制 AI,而是为了释放 AI。
没有立棍,人会害怕 AI 乱发挥,于是不断微操、不断纠正、不断补充限制。最后,AI 反而被用成了一个低级执行器。
有了立棍,人只需要钉住关键方向,其余空间交给 AI 发挥。
所以,LLM-立棍的核心不是控制,而是对齐:
最大自由,最小立棍,关键对齐。
二、为什么需要立棍?
AI 的强大,来自它的生成能力。
它会补全上下文,推断意图,扩展方案,填补空白。这些能力正是 AI 的价值所在。
但同一组能力,也会带来风险。
当任务目标、边界、术语、验收方式不够清晰时,AI 会自动解释这些空白。而模型自己的解释,未必等于人的真实意图。
于是,偏移就发生了。
普通提示词往往只告诉 AI:
我要你做什么。
但 LLM-立棍进一步追问:
你在做这件事时,最可能在哪里偏离我?
这就是关键差异。
目标决定方向。
立棍防止漂移。
三、立棍不是写更多规则
很多人会误解,以为立棍就是写更多约束、更多规则、更多限制。
不是。
LLM-立棍不是把任务写得极其详细,而是找到少数高杠杆位置。
低风险的地方,不需要立棍。
AI 可以自由发挥。
高歧义、高风险、高影响的位置,必须立棍。
因为这些地方一旦偏移,后续输出都会被带偏。
所以,立棍的重点不是多,而是准。
不是把所有空间都围起来,而是在岔路口插路标。
好的立棍,应该少而硬。
少,是为了保留 AI 的创造力。
硬,是为了防止关键方向漂移。
四、LLM-立棍的基本动作
LLM-立棍可以分为四步。
第一步,预判广义幻觉。
在任务开始前,先判断模型最可能发生哪些方向性偏移。不是急着写 prompt,而是先识别风险点。
第二步,建立术语标准。
在高风险位置,用清晰定义消解模糊词。因为模型最容易在模糊词上自由发挥,而自由发挥一旦落在关键位置,就会变成偏移。
第三步,围绕立棍推进。
执行时不要一次性放开所有目标,而是围绕关键标准逐步推进。每一轮都对照立棍检查,发现偏移就回到立棍。
这不是重新解释需求,而是回到共同标准。
第四步,使用强模型核验。
生成模型负责推进,核验模型负责对棍。核验不是泛泛评价结果好不好,而是检查它有没有越过已经定义的关键标准。
这一步很重要,因为模型很容易自我合理化。越是复杂任务,越需要独立核验。
五、它和其他方法的区别
LLM-立棍不是替代 /goal、PRD、checklist 或 TDD。
它解决的是另一层问题。
/goal 解决目标声明。
PRD 解决需求展开。
checklist 解决事后检查。
TDD 解决行为验证。
而 LLM-立棍解决的是:
模型在执行过程中如何不偏离人的真实意图。
它关注的不是“任务有没有描述完整”,而是“模型最可能在哪里误解”。
因此,LLM-立棍不是面向人类协作的文档方法,而是面向模型偏移的语义方法。
它的核心能力,是提前识别 AI 的失败模式,并在关键位置建立稳定锚点。
结语:立棍是为了让 AI 更自由
LLM-立棍的第一原则是:
立棍不是为了限制 AI,而是为了释放 AI。
没有立棍,用户会因为害怕失控而不断微操。
有了立棍,用户反而可以放心地让 AI 发挥。
真正高效的人机协作,是让它在关键方向上被对齐,在非关键空间中被释放。
所以,LLM-立棍可以浓缩成一句话:
用最小但最有效的语义约束,换取 AI 最大程度的自由发挥。
如果想进一步探讨,不妨来云栈社区聊聊。