今天下午,MiniMax 突然发布了他们的 MiniMax 2.7 模型,这消息一出,股价都涨了近20个点。他们主打的宣传点是:“M2.7是我们第一个深度参与自身进化的模型。”
这挺有意思的,值得聊聊。
上个月 OpenAI 刚宣布 GPT-5.3 Codex 参与了自己的训练,现在 MiniMax 也说 M2.7 参与了自己的进化。看来,用 AI 来制造和优化 AI,马上要成为行业标配了。
不过,MiniMax 的技术报告相比 OpenAI 还是透露了更多细节。他们提到,在开发 M2.7 的过程中,用早期版本的模型构建了数十个复杂的 Skills(技能),这些技能可以更新模型自己的记忆,驱动模型进行强化学习,甚至还能根据反馈结果来优化强化学习本身的流程和框架。
在一些研发场景下,M2.7 现在能自主处理大约 30% 到 50% 的工作流。他们的目标是,未来的 AI 自我进化将逐步向完全自治转变,在数据构建、模型训练、推理架构等各个阶段,都无需人工干预。
这个愿景如果真的成熟了,大厂们可能真的会划拨专门的算力去做实验,那可就真成了“自进化”了。
说回模型本身的能力,我简单接入 M2.7 试了试,比之前的 M2.5 好了不少,有些惊喜。
在覆盖多种编程语言的 SWE-Pro 基准测试上,M2.7 达到了 56.22% 的准确率,与 GPT-5.3-Codex 持平。这个成绩其实很难得,说明它对复杂工程任务的理解已经相当不错。
而且,它原生支持 Agent Team 功能。这个概念类似于 Claude Code 里的那种,让多个 Agent 相互协同、并行执行任务。这个特性在国产模型里算是比较难得的。
此外,他们基于 OpenClaw 中常用的任务,构建了一个名为 MM Claw 的评估集,涵盖了工作和生活中广泛的真实需求。M2.7 在该测试上达到了接近 Sonnet 4.6 的水平,准确率为 62.7%。
还有一个能力是 MiniMax 一直以来擅长的领域:角色一致性和可对话性。今天他们还开源了一个新项目叫 OpenRoom,在 Agent 娱乐交互方面又搞出了新玩法。感兴趣的朋友可以去 Github 上搜 OpenRoom 看看。
整体体验下来,我感觉 M2.7 是目前国内最适合类似 OpenClaw 这种多 Agent 协作框架的基座模型。
而且它有一个巨大的优势:真的便宜,速度还快。
早在 M2.5 时期,他们就做到了运行1小时成本约1美元的水平。而 M2.7 在推理效率上还有提升,这性价比属实“香炸了”。一个20美元的 Coding Plan 就能用得非常爽。
所以,今天我也更新一下我心中的 Agent 产品推荐。
如果你有条件使用国外产品:
- 最优解:Claude Code 和 Cowork + Claude Opus 4.6。
- 次优解:开发场景用 Codex + GPT 5.4,通用办公用 OpenClaw + GPT 5.4。
如果你主要使用国内产品:
- 目前体验最好:Claude Code + MiniMax M2.7(需注意 Claude Code 本身是国外服务,此处指其多 Agent 框架理念与 M2.7 的结合)。
- 其次推荐:OpenClaw + M2.7。
总之,MiniMax M2.7 在成本、性能和多 Agent 协作支持上的表现,让它成为了国产 AI 基座模型中的一个强力竞争者。对于关注 开源实战 和 AI 应用落地的开发者来说,值得上手一试,也欢迎来 云栈社区 分享你的使用体验。
|