找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3458

积分

0

好友

466

主题
发表于 2 小时前 | 查看: 2| 回复: 0

你有没有发现,大模型圈的玩法,短短三年已经彻底换了一轮。去年还在比拼谁的参数大、预训练数据多,今年所有人都把筹码压在了Agent和后训练上。

小米大模型负责人罗福莉在最近一场3.5小时的深度访谈中,把这波AI范式转型说得非常透。作为曾经在达摩院、DeepSeek深耕过的一线研究者,她的判断值得每一个关注AI的人认真读一读。

这波变化到底有多大?

罗福莉的判断非常直接:AI已经从预训练主导的Chat时代,全面进入后训练主导的Agent时代

这个转变不是量变,是质变。放在两三年前,所有人比拼的都是谁能拿到更多数据、训出更大模型。那个时候,大家的共识是"参数越大,能力越强"。预训练就是一切,后训练只是边角料。

现在情况完全反过来了。预训练的代差几乎被抹平,国内头部团队和国际第一梯队的差距已经非常小。真正的竞争焦点,转移到了Agent场景下的强化学习scaling。

用她的话说,整个系统已经从"以Rollout推理引擎为核心",变成了"以Agent为核心"的复杂系统。这对团队技术敏捷性提出了完全不一样的要求。

算力分配正在重构

最直观的变化,体现在GPU卡的分配比例上。Chat时代,研究、预训练、后训练的用卡比例大概是3:5:1,预训练吃掉了绝大部分算力。罗福莉说,现在一个合理的比例已经变成了3:1:1,顶尖团队甚至已经做到了1:1。

这个变化意味着什么?——大厂AI实验室的投入重心,已经从"堆参数抢占地盘",转向了"在Agent场景下精耕细作"。大家都明白,光有大参数不够,能不能把Agent用起来,能不能解决复杂长程任务,才是接下来胜负的关键。

组织也要跟着变

范式变了,组织不变不行。罗福莉提到,后训练时代特别需要团队的多样性。原来做预训练的工程师,转型做后训练就是很好的补充。不同背景的人在一起碰撞,更容易产生新想法。

接下来两三个月会非常精彩。她说,这是检验一个团队能不能快速拥抱新范式的关键时刻。谁能更快调整技术路线、重组团队和算力分配,谁就能在接下来竞争中占得先机。

这里有一个很有意思的点——罗福莉认为Anthropic的路径是对的,这已经是圈内共识。国内团队现在都在往这个方向加速追赶。

1T参数为什么是入场券?

访谈里另一个核心判断:1T以上参数的基座模型,是现在AGI竞争的入场券。但这只是入场券,不是终点。

罗福莉认为,我们不会在1T这个水平停留太久。想要在下一阶段保持领先,必须马上思考:接下来还要继续scale什么?是继续堆参数量,还是scale别的东西?在什么样的芯片上scale?这些决策现在就要做,因为它决定了半年后谁领先。

关于OpenClaw这样的开源Agent框架,她评价也很高:通过持久化记忆和任务编排,不仅弥补了模型本身能力的短板,还能把中层模型的上限给激发出来。未来的方向一定是Agent框架和基座模型协同进化。

对我们普通人意味着什么?

罗福莉说,哪怕是亲手训练模型的研究者,现在都有危机感。她自己就说:"我之前认为我们自己做的工作已经足够有创造力、足够不会被Skill化、不会被Workflow化。但我现在发现,它竟然也能!"

当人类的知识和智慧都能内化为模型能力,我们该去哪里?这个问题现在没有人能给出答案。但有一点可以确定:这波变革的速度,比我们想象的快得多

你我都已经在这艘船上了。与其观望,不如思考——在Agent时代,你的技能会不会被重新编排?你该怎么借这波趋势升级自己的能力?如果你想更深入地探讨这些技术趋势,欢迎来云栈社区与大家一起交流。




上一篇:中科院联合CreateAI发布NeoVerse:4D重建与轨迹视频生成新突破
下一篇:3GPP正式纳入6G关键性能指标:中国主导修订细节解读
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-27 04:08 , Processed in 0.777465 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表