找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4715

积分

0

好友

650

主题
发表于 3 小时前 | 查看: 1| 回复: 0

科技感标题动画:DEBUG THE WORLD X.PIN <X.Bench>

无奈表情包 如果不是谷歌 TurboQuant 搞了这样一场闹剧,我都没发现我们忍 AI 这么久了。

这个月的 24 号,谷歌研究院(Google Research)突然在社交媒体上发帖,详细介绍一项名为 TurboQuant 的极端压缩算法。

谷歌研究院推文截图:介绍TurboQuant

这篇帖子非常简单地总结了 TurboQuant 这个算法的用处 —— 它能把大模型推理时的 KV cache 内存压缩到 3.5 bit(约 6 倍),而且几乎不丢精度。

翻译成人话就是,谷歌研究院介绍了一种算法,能大幅度减少大模型对于内存的消耗。以前用 600G 内存才能搞定的事儿,用上这个算法后只要 100G 就行了!

开心表情包 第二天,原本还在吃着火锅唱着歌的几个存储大厂,股价应声下跌。

美光科技股价下跌3.4%,市值损失151.66亿美元;闪迪(SanDisk)股价一度大跌6.5%,收盘时跌幅收窄至3.5%,市值损失36.3亿美元;西部数据(Western Digital)下跌1.63%,市值损失16.64亿美元。

图表来源:新浪财经
存储大厂股价下跌走势图

整个 AI 圈都炸开了锅,大家都纷纷开始分析,TurboQuant 到底厉害在哪里,又是怎么影响未来硬件格局的。

关于TurboQuant的新闻标题截图

就连 Cloudflare 的 CEO 都发文评价说,这是谷歌的 DeepSeek 时刻。

Cloudflare CEO Matthew Prince的推文截图

很多开发者看到这个消息,可能要在被窝里笑出声了:干的漂亮!接下来的内存、固态硬盘,是不是也得跟着跌了?咱们攒机党是不是终于熬出头了?

我当然也希望事情往这个方面发展。

为了搞清楚咱这个最朴实的愿望能不能实现,我还特地去做了点功课,学习了下 TurboQuant 到底是个什么东西。

思考表情包 结果还没等我搞明白这个 TurboQuant 到底怎么个Turbo 法,事情就迎来了180° 的大反转 ——

3月27号晚上10点,苏黎世联邦理工学院的博士后高健扬,在知乎、X 和 ICLR 评审平台上同步发文,指控当初谷歌用来介绍 TurboQuant 算法的论文存在严重的学术不端。

高健扬博士的指控推文截图

高博士发现,谷歌的 TurboQuant ,跟自己团队搞的 RaBitQ 算法高度撞车,底层都用了“随机旋转加JL变换”。

关于算法方法描述不完整的文本截图

要说英雄所见略同也就罢了,但离谱的是,高博士甩出的邮件证明早在2025年1月,谷歌这篇论文的二作 Majid 就专门发邮件,低声下气地找高博士求助怎么跑通 RaBitQ 的代码。

困惑表情包 这就不对了,谷歌这样的做法,算不算是把人家底细都摸透了,却在胜利结算的时候决口不提别人干了啥呢?

光掩盖来源还不算,谷歌的 Turbo Quant 团队甚至无视既定的数学证明,直接在论文里空口白牙地硬踩高博士的理论。

关于理论描述不被支持的文本截图

高博士认为自己的 RaBitQ 的算法,已经被严格证明达到了理论计算机顶会级别的一流标准。

结果 TurboQuant 团队连推导都不看,在毫无证据的情况下,直接在正文里给高博士盖了个“理论次优、分析粗糙”的帽子。

尴尬表情包 但最让人绷不住的,是谷歌那堪称“魔幻”的跑分双标。

论文里吹牛说自家算法比 RaBitQ 快了几个数量级,但背后的暗箱操作极其下作:

关于实验设置缺乏披露的文本截图

谷歌给自己配的是算力怪兽 A100 GPU,给对手安排的却是关掉了多线程的 CPU。

而且他们放着人家现成的、高度优化的 C++ 开源代码不用,非要用TurboQuant 论文二作自己半吊子翻译的 Python 版本去跑,给高博士的算法又叠了一层debuff。

“嘘”手势表情包 在去年5月的邮件里,这篇论文的二作作者亲口承认了这种 “ 单核打多核” 的非对称操作,也承认把这事同步给了论文的其他共同作者。

但在最终发表的论文里,这两层能引发量变级差异的软硬件信息,被抹得干干净净。

关于作者拒绝承认结构相似性的文本截图

同时 TurboQuant 论文的作者也拒绝承认自己的算法跟高博士的 RabitQ 在结构上相似。

这篇带有硬性错误的论文,被 ICLR 2026 会议接收。再后来,就有了我们开头说的故事,通过谷歌研究院官方渠道大规模推广这篇论文。

谷歌研究院只提到了TurboQuant 有多厉害,能节省多少内存,但只字未提支撑 TurboQuant 的这篇论文本身的种种错误。

这些推广,在社交媒体浏览量已达到数千万次,于是便有了上周几个头部存储厂商的股市震荡。

得意表情包 高博士估计也是实在是看不下去了,才选择发文公开实锤了。

随即存储市场这边,也逐渐从第一波震荡中缓过神来了。

Amir Zandieh回高博士邮件的当天,美光科技(MU)当日收高 0.5%,成交额 162.46 亿美元,但本周累计仍下跌 15.5%。

美光科技股价反弹截图

我不知道大家听完这段故事,是啥感觉。

我是觉得自己像个瓜田里反应迟钝的那个猹,看着同伴们吃完这个瓜,已经要去吃下一个了,正发愁自己要掉队了。

结果一转身就发现猹哥们已经在喷射了 —— 这瓜,有毒。

更让人想不通的事,这篇存在明显错误的争议论文,隔了一年才被谷歌放出来做宣传,可直到高博士站出来锤谷歌之前,我们好像也没听到谁站出来质疑。

大笑表情包 市场不语,只是震荡;所谓的 AI 圈也只是狂欢 —— 终于有人能治一治 AI 大模型狂吃内存的毛病了。

为数不多还保持理智的分析机构和国内自媒体,也只是指出这事儿完全符合华尔街老提的“杰文斯悖论”:

财经新闻关于杰文斯悖论的截图

TurboQuant 确实把长文本推理的成本打下来了,但门槛一低,厂商们绝对会放开手脚去搞开发 ——

现在国产模型上下文窗口的主流标准是 200K-256K,少数能做到1M。

但是国外主流模型已经能够做到 1M 了。你们说有了这套算法之后国外的模型会不会想着扩大优势,国产模型会不会想着奋起直追?

到时候各种多模态、长上下文的应用大批量上线,因为更好用导致用的人和场景成倍增加,全球真正需要的算力和存储硬件不仅省不下来,反而还会被巨大的需求量直接拉爆。

骷髅头表情包 但质疑 TurboQuant 是不是真的这么厉害的声音,好像被盖过去了。相当于是很大一部分人,不加考证,也不去了解学术圈内的实际情况,默认了谷歌的这个 TurboQuant 确实能改变世界。

当然啦,我这样说并不是为了批判谁,因为我自己在刚看到 TurboQuant 的报道时,也高兴得跟孩子似的。

我想点明的是,谷歌 TurboQuant 的这场闹剧,暴露了大家对 AI 的不耐烦:

为了养 AI 这个硬件吞金兽,我们已经忍受了太多。

去年年底开始,就连手机这种几乎人手一台的电子产品,也因为内存涨价而涨价。

图表来源“锌刻度”李觐麟
手机内存涨价对比表格

这时候,事情的性质就变了 —— 昂贵的 AI硬件成本 终于还是要所有人一起来买单了。

而讽刺的是,至今都没有人能说清楚,AI 到底能带来多大的生产力,能带来多大的便利。

今年早些时候 Anthropic 发布了一份关于AI对劳动力市场影响的重磅研究。

研究显示,到目前为止还是只有个别职业的人在用AI,而且 AI 在他们工作中的渗透率也没有想象中那么高。

图表来源:Anthropic
AI职业渗透率雷达图

就是这么一个个行业真实渗透率不高、只在帮少数人赚钱、实际上没那么好用的产品,它带来的负面影响 正在让全社会买单。。。

这个时候,但凡有个消息告诉我,现在有个东西能让 AI 胃口变小一点,不要再带着我涨价了 —— 那我肯定希望这个消息是真的 。

这可能也是为啥,一篇存在错误的论文,一个没有投入商用的算法,能掀起一场这么大风波。

然而可惜的是,这一切最终被证实,只是一场乌龙。


撰文:施昂
编辑:早起&米罗
美编:素描

图片、资料来源:X@GoogleResearch、@Jianyang Gao、@Matthew Prince、东方财富、<HBM 产能告急!三星、SK 海力士、美光:2026 年订单已售罄,AI 算力需求井喷 >-搜狐

DEBUG THE WORLD: 我倒希望它是真的。

相关词语像素风文字

一场由算法论文争议引发的市场震荡,再次凸显了技术创新与资本市场的复杂联动。在云栈社区,我们持续关注AI前沿技术与产业动态,致力于提供客观、深度的技术解读与行业分析。




上一篇:揭秘K8s隐性税:平台团队如何利用虚拟集群技术年省4.3万美元成本
下一篇:2026年苹果新品前瞻:iPhone 18 Pro/折叠屏等超15款设备解析
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-31 05:45 , Processed in 0.533492 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表