找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2157

积分

1

好友

295

主题
发表于 2025-12-24 16:54:13 | 查看: 34| 回复: 0

Redis 创始人 Antirez 在其最新博文《Reflections on AI at the end of 2025》中,系统阐述了对当前人工智能领域,尤其是大语言模型(LLM)技术发展的观察与思考。

图片

从“随机鹦鹉”的争论到现实共识

过去多年,尽管功能证据不断涌现,部分AI研究者曾坚持认为大语言模型(LLM)仅是“随机鹦鹉”——一种仅依赖概率、对提示含义和自身输出没有内部表征的机器。但到2025年,这一观点几乎已从主流讨论中消失。

思维链(CoT)的效能本质

思维链(Chain-of-Thought)已成为提升LLM输出质量的核心技术。它为何有效?Antirez认为主要有两个原因:其一,它是在模型表征空间中进行的一种“内部搜索”,将相关概念和空间信息纳入上下文后,模型能生成更优回复;其二,结合强化学习,模型学会了为了达成有用的最终输出,如何策略性地排列每一个Token(每个Token都会改变模型的内在状态)。

扩展定律的新边界与强化学习的突破

“扩展受限于现存Token数量”的旧观点已被打破,这主要得益于带有可验证奖励的强化学习。我们虽未达到类似AlphaGo“第37手”那样的颠覆性时刻,但在某些有清晰奖励信号的任务中(如优化程序性能),模型理论上能在极长时间内持续进步。Antirez相信,针对LLM的强化学习改进将是AI领域的下一个重大突破。

编程范式的接纳与分野

程序员对AI编程助手的抵触情绪已大幅减弱。尽管LLM仍会出错,但其生成有用代码和提示的能力,使得投资回报率(ROI)对大多数开发者而言已变得可接受。当前开发者分为两派:一派将LLM视作“智能同事”(主要通过Web界面交互),另一派则致力于开发能够独立工作的编程智能体(Agents)。

AGI的路径:范式之争与架构可能性

少数知名AI科学家坚信,Transformer的奇迹可以通过不同路径复现甚至超越,并已着手研究其替代方案,例如具有显式符号表征或世界模型的架构。但Antirez认为,LLM作为在能逼近离散推理步骤的空间上训练的微分机器,即使没有全新范式,也可能引领我们走向通用人工智能(AGI)。AGI很可能通过多种迥异的架构各自实现。

驳斥关于思维链的“本质改变论”

有人认为思维链从根本上改变了LLM的本质,并以此解释自己过去对LLM局限性的误判。Antirez指出这是谎言:模型架构未变,目标仍是预测下一个Token,思维链本身正是由这些Token逐步构建而成的。

ARC测试的角色转变

曾经被视为LLM难以逾越的抽象推理基准(ARC)测试,如今已不再那么令人望而生畏。经过特定任务优化的较小模型在ARC-AGI-1上表现尚可,而结合大量思维链的巨型LLM在ARC-AGI-2上取得了惊人成绩——这与早期许多人的断言相反。某种程度上,ARC已从“反LLM测试”转变为“验证LLM能力”的测试。

终极的挑战

Antirez在文末提出了一个超越技术的根本性思考:未来20年,人工智能领域面临的最核心挑战,将是避免人类灭绝。

图片




上一篇:Kubernetes Pod CrashLoopBackOff故障排查实战与脚本大全
下一篇:Crawl4AI开源网页爬虫实战:为LLM优化的数据抓取与Markdown转换
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-1-11 14:23 , Processed in 0.248291 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表