找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4355

积分

0

好友

597

主题
发表于 8 小时前 | 查看: 4| 回复: 0

将内存股一夜干崩的谷歌顶会论文,出大事了。

几天前,谷歌一篇将在ICLR 2026亮相的论文TurboQuant,因其宣称能将LLM的键值缓存(KV Cache)内存占用降低至少6倍并提速8倍,引发了科技圈的震动,甚至波及了存储巨头的股价。

就在外界为这项“突破”欢呼时,事件迅速反转。苏黎世联邦理工学院博士后、RaBitQ算法的第一作者高健扬(Jianyang Gao)公开发声,指控这篇论文在描述其已有工作时存在严重问题,包括不正确的技术声明和具有误导性的理论及实验对比。

Google Research 关于 TurboQuant 算法的推文截图

更关键的是,高健扬团队表示,这些问题在论文投稿前就已向作者指出,对方承认了,但选择了不予修正。论文随后被ICLR 2026接收,并经由Google官方渠道获得了数千万次的浏览量。

高健扬在社交媒体上发布的澄清声明截图

简单来说,核心争议在于:TurboQuant的核心方法(随机旋转+向量量化)被指与高健扬团队两年前已发表并开源的RaBitQ高度相似,但谷歌论文不仅未予客观承认和讨论,反而在理论对比和实验设置上进行了不公正的贬低。

争议核心:向量量化与“重新发明”

此次争端围绕向量量化技术展开。这是一种将高维向量压缩表示,以节省内存和计算资源的技术,在近似最近邻搜索和大模型推理优化中至关重要。

高健扬团队在2024年5月就在arXiv上发布了论文《RaBitQ: Quantizing High-Dimensional Vectors with a Theoretical Error Bound for Approximate Nearest Neighbor Search》。其核心思路是:在量化之前,先对向量做一次随机旋转(Johnson-Lindenstrauss变换),使向量坐标分布更可预测,从而实现更高效的量化。

RaBitQ 论文首页截图

论文地址:https://arxiv.org/abs/2405.12497

该团队在随后的工作中严格证明了RaBitQ达到了理论计算机顶会FOCS 2017给出的渐近最优误差界,相关成果也发表在了数据库顶会SIGMOD上,且代码全部开源。

而谷歌的TurboQuant论文,其核心同样是随机旋转+向量量化。因此,在高健扬团队看来,这并非创新,而是对其已开源成果的“重新包装”。

三方面具体指控:从方法隐匿到实验不公

根据高健扬团队在OpenReview上发布的公开评论以及相关邮件记录,指控主要集中在三个方面:

1. 方法描述不完整,隐匿关键相似性
TurboQuant论文将随机反复强调随机旋转是其方法的关键步骤,但在描述RaBitQ时,却主要将其简化为“基于网格的乘积量化(grid-based PQ)”,刻意忽略了RaBitQ中同样核心的随机旋转步骤。这种做法使得读者难以察觉两者在核心方法论上的联系。

然而,在论文评审阶段,有审稿人直接询问“随机旋转是你们首创的吗?”,作者在反驳中明确承认:“随机旋转的使用此前已有探索(参见…RabitQ…等工作)”。这表明作者完全知情,却在正文中选择了隐匿。

审稿人意见截图,指出两者均使用随机投影

一位给出高分的审稿人(Reviewer WFrV)也明确建议作者在终稿中深入讨论与RaBitQ的异同。但最终的定稿版本中,对RaBitQ仅有的描述甚至被移到了附录里。

2. 无依据贬低理论成果
TurboQuant论文中声称,RaBitQ的理论保证是“次优的(suboptimal)”,可能源于“松散的分析(loose analysis)”。

但高健扬团队指出,他们在2024年9月的扩展论文中已经严格证明了RaBitQ的误差界匹配FOCS 2017的最优界限。团队曾在2025年5月通过邮件与TurboQuant的作者之一Majid Daliri进行了详细的技术讨论,澄清了这一点,对方表示已告知所有共同作者,但论文中的不准确描述始终未被修正。

3. 不公平的实验对比
论文声称RaBitQ的量化速度比TurboQuant慢“数个数量级”。但邮件记录显示,这一对比存在严重不公:

  • 硬件不对等:测试RaBitQ时使用的是单核CPU,而测试TurboQuant时使用的是A100 GPU。
  • 代码版本不对等:用于对比的RaBitQ是作者自行翻译的、未优化的Python版本,而非官方开源的高度优化的C++实现(且官方实现默认支持多线程)。

这相当于“绑住对手的脚再赛跑”。尽管作者在私下邮件中承认了这些设置,并在早期就已成功运行过官方的C++代码,但论文中并未对此进行充分披露。

表达无奈情绪的梗图

更多质疑与社区反响

除了上述核心争议,TurboQuant论文本身也受到了其他研究者的质疑。例如,有研究者在OpenReview上指出,其宣称的“8倍加速”是相对于不切实际的FP32精度基准而言的,且论文与官方博客中提到的基准框架(PyTorch vs JAX)也不一致。

研究者 Jonas Matthias Kübler 在 OpenReview 上的质疑评论截图

这一事件在开发者社区和学术界引发了广泛讨论。许多声音认为,这反映出在大型科技公司的光环下,独立研究者的成果可能面临被边缘化甚至被不当贬低的风险。错误的学术叙事一旦凭借巨大的影响力传播开来,纠正将变得异常困难。

高健扬在声明中写道:“我们此时公开说明,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。”

这场争议不仅关乎个别论文的署名或引用,更触及了人工智能研究领域学术公平与伦理的深层问题。它也提醒我们,在追逐技术热点的同时,严谨的学术讨论和对先行者工作的尊重,是维系开源实战生态健康发展的基石。对于这类技术争议的持续关注和理性探讨,正是开发者社区的价值所在。

参考资料:




上一篇:Vben Admin 源码解析:如何用 Schema 驱动化解企业级中后台表单复杂度
下一篇:全球室内设计与建筑改造案例精选 Vol.36:住宅、工作室与商业空间灵感解析
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-29 09:11 , Processed in 0.513681 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表