你有没有发现,大模型圈的玩法,短短三年已经彻底换了一轮。去年还在比拼谁的参数大、预训练数据多,今年所有人都把筹码压在了Agent和后训练上。
小米大模型负责人罗福莉在最近一场3.5小时的深度访谈中,把这波AI范式转型说得非常透。作为曾经在达摩院、DeepSeek深耕过的一线研究者,她的判断值得每一个关注AI的人认真读一读。
这波变化到底有多大?
罗福莉的判断非常直接:AI已经从预训练主导的Chat时代,全面进入后训练主导的Agent时代。
这个转变不是量变,是质变。放在两三年前,所有人比拼的都是谁能拿到更多数据、训出更大模型。那个时候,大家的共识是"参数越大,能力越强"。预训练就是一切,后训练只是边角料。
现在情况完全反过来了。预训练的代差几乎被抹平,国内头部团队和国际第一梯队的差距已经非常小。真正的竞争焦点,转移到了Agent场景下的强化学习scaling。
用她的话说,整个系统已经从"以Rollout推理引擎为核心",变成了"以Agent为核心"的复杂系统。这对团队技术敏捷性提出了完全不一样的要求。
算力分配正在重构
最直观的变化,体现在GPU卡的分配比例上。Chat时代,研究、预训练、后训练的用卡比例大概是3:5:1,预训练吃掉了绝大部分算力。罗福莉说,现在一个合理的比例已经变成了3:1:1,顶尖团队甚至已经做到了1:1。
这个变化意味着什么?——大厂AI实验室的投入重心,已经从"堆参数抢占地盘",转向了"在Agent场景下精耕细作"。大家都明白,光有大参数不够,能不能把Agent用起来,能不能解决复杂长程任务,才是接下来胜负的关键。
组织也要跟着变
范式变了,组织不变不行。罗福莉提到,后训练时代特别需要团队的多样性。原来做预训练的工程师,转型做后训练就是很好的补充。不同背景的人在一起碰撞,更容易产生新想法。
接下来两三个月会非常精彩。她说,这是检验一个团队能不能快速拥抱新范式的关键时刻。谁能更快调整技术路线、重组团队和算力分配,谁就能在接下来竞争中占得先机。
这里有一个很有意思的点——罗福莉认为Anthropic的路径是对的,这已经是圈内共识。国内团队现在都在往这个方向加速追赶。
1T参数为什么是入场券?
访谈里另一个核心判断:1T以上参数的基座模型,是现在AGI竞争的入场券。但这只是入场券,不是终点。
罗福莉认为,我们不会在1T这个水平停留太久。想要在下一阶段保持领先,必须马上思考:接下来还要继续scale什么?是继续堆参数量,还是scale别的东西?在什么样的芯片上scale?这些决策现在就要做,因为它决定了半年后谁领先。
关于OpenClaw这样的开源Agent框架,她评价也很高:通过持久化记忆和任务编排,不仅弥补了模型本身能力的短板,还能把中层模型的上限给激发出来。未来的方向一定是Agent框架和基座模型协同进化。
对我们普通人意味着什么?
罗福莉说,哪怕是亲手训练模型的研究者,现在都有危机感。她自己就说:"我之前认为我们自己做的工作已经足够有创造力、足够不会被Skill化、不会被Workflow化。但我现在发现,它竟然也能!"
当人类的知识和智慧都能内化为模型能力,我们该去哪里?这个问题现在没有人能给出答案。但有一点可以确定:这波变革的速度,比我们想象的快得多。
你我都已经在这艘船上了。与其观望,不如思考——在Agent时代,你的技能会不会被重新编排?你该怎么借这波趋势升级自己的能力?如果你想更深入地探讨这些技术趋势,欢迎来云栈社区与大家一起交流。