大型语言模型(LLM)能以其雄辩说服你,同时也能让你信服一个完全相反的观点。这个差异,或许比我们意识到的要重要得多。
最近,人工智能专家 Andrej Karpathy 分享了一个耐人寻味的经历。他花了四个小时,用 LLM 打磨一篇博客文章的论点,直到感觉逻辑天衣无缝、无可辩驳。心情愉悦之际,他顺手让同一个模型去论证反方的观点。
结果,LLM 用同样缜密的逻辑和专业的“PhD腔调”,把他自己的论点拆解得七零八落。更戏剧性的是,Karpathy 被说服了。他在帖子末尾写了个“lol”,但这个笑背后,是一个严肃的技术哲学问题。
这个案例清晰地揭示了一点:LLM 本质上并不在乎你论证的是什么,它在乎的是你让它说什么。它的优化目标是局部的连贯性和文本的“说服力”,而非客观真相。因此,它既可以帮你将一个薄弱的论点打磨得光鲜亮丽,也可以在几分钟内用同等的水准将其彻底瓦解。
有网友的评论一针见血:“如果它能流利地论证正反两面,这恰恰说明了它强大的修辞能力,而非你论证本身的正确性。你被说服,可能只代表你的反驳门槛设得太低了。”
当然,这个特性未必是缺点,关键在于如何使用。有观点认为,与其将 LLM 当作思想的单向放大器,不如将其视为一个高效的压力测试机。例如,在公开发表观点前,可以主动要求 LLM 找出你论点的三个最大漏洞,让它扮演最挑剔的批评者,而非最热情的编辑。更进一步,有人正在构建 multi-agent 系统,让不同的模型在隔离的上下文环境中进行盲评和相互攻击,以对抗模型天然的“讨好”倾向,从而获得更严谨的评估。
这引出了一个根本性的问题:我们人类习惯于用“听起来有没有道理”来快速判断一个论点。而 LLM 恰好极其擅长让任何东西都“听起来有道理”。过去,我们缺乏的或许不是正确答案,而是足够犀利、高质量的反驳。如今,这个障碍被 LLM 轻易移除了,但我们却面临一个新的选择:你是否愿意在观点发布之前,主动邀请这位“超级辩手”把你的核心论点彻底砸烂一遍?这种对自我论证的主动批判,或许能成为开发者提升思维严谨性的新工具。欢迎来 开发者广场 分享你在使用 AI 工具时的类似思考与经验。
|