2026年3月17日,日本科技巨头乐天(Rakuten)高调发布了其号称“日本最大规模”的AI模型——Rakuten AI 3.0。该模型拥有7000亿参数,并特别针对日语进行了优化。
然而,发布不久,这一“成果”便被全球开源社区迅速“扒了底裤”。开发者们发现,其底层架构几乎完全复刻了中国公司深度求索(DeepSeek)的开源模型V3。在模型配置文件中,明确标注了“DeepseekV3ForCausalLM”的字样,其参数规模也与DeepSeek-V3的6710亿总参数、370亿激活参数完全一致。这表明,乐天所做的工作可能仅限于在DeepSeek-V3的基座上,使用日语数据进行了微调。
更引发争议的是,乐天似乎在初期试图掩盖这一技术来源。有开发者指出,乐天最初删除了DeepSeek模型所遵循的MIT开源协议声明。在事件发酵后,才仅仅以一个简单的“NOTICE”文件进行补充。在其官方宣传中,乐天也避谈中国技术源头,转而反复强调这是“日本最大”的AI成就。
这一系列操作迅速在技术圈和社交媒体上引发了群嘲。日本网友痛批此举是“技术上的掩耳盗铃”。同时,也有声音翻出了乐天美籍华裔AI负责人Ting Cai(曾任职谷歌、微软)过往的“移民强硬派”立场,与其选择中国开源技术的做法形成了微妙对比。
此次事件也折射出日本AI产业面临的现实困境。尽管有政府主导的GENIAC等项目扶持,但像乐天这样的头部企业,在构建大模型时仍严重依赖海外(特别是中国)的开源成果进行“套壳”开发。这不禁让人联想到“中国一开源,日本就自研”的行业调侃,似乎正在成为某种魔咒。
截至目前,乐天官方尚未对抄袭指控做出正面回应,仅默默补传了相关的版权声明文件。这一“事后补救”的举动,被网友调侃为“删改痕迹比代码本身更精彩”。
此次事件在技术圈内引发了广泛讨论。对于开源技术的使用边界、企业宣传的伦理以及全球AI竞争格局,都提出了值得深思的问题。欢迎大家在云栈社区的开发者广场板块继续交流对此事的看法。
|