就在昨天,AI 编程工具 Cursor 对外发布了其新模型 Composer 2,主打“更强编码能力”和“更低价格”。这显然是它意图在 Claude、GPT-4 以及一众新兴代码模型的激烈竞争中,进一步巩固自身地位的有力举措。然而,发布后不久,这个新模型便迅速陷入了“套壳”质疑。
争议的导火索,来自于一位 ID 名为 Fynn 的开发者进行的逆向分析。
这位开发者在调试 Cursor 的 API 请求时发现,Composer 2 实际调用的模型 ID 为:
kimi-k2p5-rl-0317-s515-fast
从命名结构来看,这个字符串具备高度的可解释性:
- kimi-k2p5:直指 Kimi K2.5。
- rl:代表强化学习(Reinforcement Learning)版本。
- 0317:可能指模型的构建或发布时间。
- s515-fast:可能代表特定的推理或速度优化变体。
这个“模型指纹”很快就在技术社区中传播开来,并被普遍解读为:Cursor 的新模型很可能直接调用或深度依赖月之暗面(Moonshot AI)的 Kimi K2.5,而非完全自研。
随后,月之暗面的预训练负责人 Yulun Du 在 X(原 Twitter)平台上确认,该模型使用的分词器(tokenizer)与 Kimi 的完全相同,并质疑 Cursor 可能没有遵守相关开源许可,也未支付相应费用。
随着事情的不断发酵,昨天晚上,Cursor 公司的 AI 教育负责人 Lee Robinson 在 X 上发文,承认 Cursor 的确是基于开源模型起步的,并称未来会进行完整的预训练。
他表示,Composer 2 所耗费的总计算量中,大约只有四分之一来自开源的基础模型,其余四分之三都来自他们自己进行的额外训练。这也是为什么最终模型的评估结果会与基础模型产生很大差异的原因。同时,他坚称公司全程遵守了相关的许可协议。
目前,Yulun Du 的原帖已被其本人删除。
今早,这场持续了不到一天的模型“套壳”纷争迎来了阶段性结局。
Cursor 联合创始人 Aman Sanger 在 X 上发文,详细澄清了 Composer 2 的“血统”问题。
Aman Sanger 写道:“k2.5 被证明是最强的(基础模型)!之后,我们对其进行了持续的预训练和高计算强度的强化学习(整体计算规模扩大了约 4 倍)。强大的基础模型、持续的预训练与强化学习的结合,再加上 Fireworks 提供的推理和强化学习采样器,最终让 Composer-2 达到了前沿水平。但一开始没在博客里提到 Kimi 基础模型是我们的疏忽,下一个模型发布时我们会补上这一点。”
随后,Kimi 团队也在 X 上发文,对 Composer 2 的发布表示了祝贺。
Kimi 团队写道:“我们很自豪 Kimi-k2.5 能作为其基础模型。看到我们的模型通过 Cursor 的持续预训练和高计算强度强化学习被有效集成,这正是我们乐于支持的开源模型生态。注:Cursor 通过 @FireworksAI_HQ 托管的强化学习与推理平台访问 Kimi-k2.5,这是授权商业合作的一部分。”
这一事件迅速引发了开发者社区的广泛讨论。有开发者认为,在强大的开源模型基础上进行微调和优化,本就是行业常见做法,关键在于是否遵守协议并明确声明;也有人认为,这起事件凸显了当前人工智能领域模型研发的复杂生态。技术的发展和争议总是相伴而行,这也正是云栈社区这样的平台存在的价值——让大家能更清晰地了解技术背后的故事与逻辑。
|