Redis 创始人 Antirez 在其最新博文《Reflections on AI at the end of 2025》中,系统阐述了对当前人工智能领域,尤其是大语言模型(LLM)技术发展的观察与思考。

从“随机鹦鹉”的争论到现实共识
过去多年,尽管功能证据不断涌现,部分AI研究者曾坚持认为大语言模型(LLM)仅是“随机鹦鹉”——一种仅依赖概率、对提示含义和自身输出没有内部表征的机器。但到2025年,这一观点几乎已从主流讨论中消失。
思维链(CoT)的效能本质
思维链(Chain-of-Thought)已成为提升LLM输出质量的核心技术。它为何有效?Antirez认为主要有两个原因:其一,它是在模型表征空间中进行的一种“内部搜索”,将相关概念和空间信息纳入上下文后,模型能生成更优回复;其二,结合强化学习,模型学会了为了达成有用的最终输出,如何策略性地排列每一个Token(每个Token都会改变模型的内在状态)。
扩展定律的新边界与强化学习的突破
“扩展受限于现存Token数量”的旧观点已被打破,这主要得益于带有可验证奖励的强化学习。我们虽未达到类似AlphaGo“第37手”那样的颠覆性时刻,但在某些有清晰奖励信号的任务中(如优化程序性能),模型理论上能在极长时间内持续进步。Antirez相信,针对LLM的强化学习改进将是AI领域的下一个重大突破。
编程范式的接纳与分野
程序员对AI编程助手的抵触情绪已大幅减弱。尽管LLM仍会出错,但其生成有用代码和提示的能力,使得投资回报率(ROI)对大多数开发者而言已变得可接受。当前开发者分为两派:一派将LLM视作“智能同事”(主要通过Web界面交互),另一派则致力于开发能够独立工作的编程智能体(Agents)。
AGI的路径:范式之争与架构可能性
少数知名AI科学家坚信,Transformer的奇迹可以通过不同路径复现甚至超越,并已着手研究其替代方案,例如具有显式符号表征或世界模型的架构。但Antirez认为,LLM作为在能逼近离散推理步骤的空间上训练的微分机器,即使没有全新范式,也可能引领我们走向通用人工智能(AGI)。AGI很可能通过多种迥异的架构各自实现。
驳斥关于思维链的“本质改变论”
有人认为思维链从根本上改变了LLM的本质,并以此解释自己过去对LLM局限性的误判。Antirez指出这是谎言:模型架构未变,目标仍是预测下一个Token,思维链本身正是由这些Token逐步构建而成的。
ARC测试的角色转变
曾经被视为LLM难以逾越的抽象推理基准(ARC)测试,如今已不再那么令人望而生畏。经过特定任务优化的较小模型在ARC-AGI-1上表现尚可,而结合大量思维链的巨型LLM在ARC-AGI-2上取得了惊人成绩——这与早期许多人的断言相反。某种程度上,ARC已从“反LLM测试”转变为“验证LLM能力”的测试。
终极的挑战
Antirez在文末提出了一个超越技术的根本性思考:未来20年,人工智能领域面临的最核心挑战,将是避免人类灭绝。

|