找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

5025

积分

1

好友

696

主题
发表于 4 天前 | 查看: 30| 回复: 0

Jürgen Schmidhuber的一则推文,犹如在平静的AI学术湖面投下了一枚深水炸弹。这位LSTM之父、深度学习奠基人之一,直指图灵奖得主、Meta首席AI科学家Yann LeCun提出的JEPA架构,不过是其1992年发表的PMAX系统的“翻版”。

3月31日,Schmidhuber在社交媒体上发布了一条简洁但极具分量的推文,内容仅包含文献编号和一句断言:“Yann LeCun的JEPA,就是我在1992年发表的PMAX。” 这不仅是对一位顶尖学者原创性的质疑,更将一场关于深度学习发展史的“优先权”争论推至台前。

技术溯源:PMAX与JEPA的“双胞胎”疑云

这场争议的核心在于技术架构的相似性。Schmidhuber抛出了硬核证据:他在1992年发表的PMAX系统。其核心架构涉及两个非生成式神经网络,其中一个网络为自身输入创建潜在表示,另一个则学习从其自身的潜在空间预测第一个网络的表示,并同时防止表示“崩溃”。

而LeCun在2022年提出的JEPA,其核心思想是学习从一种输入的表征去预测另一种相关输入的表征,同样强调在潜在空间中进行预测,而非直接生成像素。

Schmidhuber贴出了1992年论文《Discovering Predictable Classifications》的截图佐证。文中详细描述了自动编码器、潜在空间预测以及对称与非对称网络结构。他甚至提到了“防止表示过于通用”——这与今天JEPA论文中重点讨论的“防止崩溃”问题如出一辙。

“PMAX实际上是一整个方法家族。最简单的实例:一个自动编码器网络看到输入并在隐藏单元中表示它(即潜在空间)。另一个网络看到不同但相关的输入,并学习预测(从它自己的潜在空间)自动编码器的潜在表示。”

更引人注目的是来自BYOL团队负责人Michal Valko的背书。他在2026年公开赞扬PMAX:“令人震惊的是,PMAX作为原型自监督学习/对比学习框架,比SimCLR、BYOL、Barlow Twins早了25-30年。它没被充分赞扬真是令人震惊。”

Valko还进一步列出了详细的对比,指出Barlow Twins的互相关惩罚、VICReg的方差铰链损失等现代方法,都能在PMAX的早期论述中找到对应。他总结道,今天的JEPA家族,或许只是PMAX的一个“注释版”。

象征AI技术传承与时间流逝的沙漏建筑插画

翻旧账:一场持续多年的原创性争议

然而,这并非Schmidhuber第一次对LeCun的学术原创性提出质疑。他在推文中进一步列举:LeCun并未“共同发明深度学习”,不是卷积神经网络(CNN)的发明者,甚至也不是第一个将CNN与反向传播结合的人。他认为,许多颁给LeCun的荣誉,本应属于那些未被充分引用的早期研究者。

争论还延伸到了商业领域。Schmidhuber指出,LeCun于2025年成立、以JEPA为核心技术的新公司AMI,其致力于物理世界AI的定位,“明显模仿了”他自己在2014年创立的公司NNAISENSE——后者同样基于神经世界模型来探索物理世界的通用人工智能。

“三十年前的计算成本高了一百万倍,但JEPA的基本洞见已经存在。”Schmidhuber总结道,“LeCun只是重新包装了旧想法,没有引用它们。”

罗生门:独立发现还是故意忽视?

当然,事件也存在另一面的声音。在推文评论区,有用户指出JEPA可能包含更复杂的“规划”步骤,认为“概念重叠”并不等同于“本质相同”。PMAX与JEPA在具体实现细节和目标函数上可能存在差异。

对此,Schmidhuber的回应直接而尖锐:“你把JEPA和H-JEPA搞混了。H-JEPA只是几个JEPA/PMAX的堆叠。”

这触及了AI研究中的一个经典灰色地带:“独立发现”与“想法重包装”的界限往往模糊。1992年的PMAX因当时有限的计算资源未能产生广泛影响,而LeCun在2022年的JEPA论文中也确实未引用这篇早期工作。

是学术疏忽,还是有意为之?Schmidhuber引用了一篇《自然》文章的观点,似乎给出了自己的答案:“聪明的抄袭者最危险——他们用不同的话改写之前的发现,故意隐藏想法来源,然后在随后的年份里强力声称自己发现了新现象。”

历史的韵脚:谁该被记住?

这场争论最发人深省的部分,或许隐藏在Valko的另一句评论中:“在研究中,提前30年正确和错误看起来完全一样,直到计算能力追上。”

PMAX在1992年或许只能处理简单的立体视觉任务,而今天的JEPA已能驾驭视频、语言等多模态数据。但二者架构的“DNA”是否同源?这已不单纯是学术诚信的辩论,更关乎AI历史叙事权的争夺。

展现神经网络与芯片技术演进的赛博朋克风格插画

当投资者为“世界模型”等前沿概念兴奋时,他们是否知道,这些想法在Schmidhuber的实验室里已被探讨了超过三十年?Schmidhuber在文末冷静地补充道:“虽然内行都知道大语言模型不足以实现AGI,但JEPA同样不足以实现AGI。我们当然知道——我们以PMAX的名义拥有它已经超过30年了。”

历史不会简单重复,但常押着相似的韵脚。这次,韵脚跨越了整整三十年。

当今天的创业者和研究者热烈讨论“潜在空间预测”和“世界模型”时,这个故事或许是一个提醒:有些思想的种子,早在个人电脑尚未普及的年代就已埋下。

描绘芯片、电路与早期计算机象征AI硬件发展的素描插画

这场顶尖学者之间的交锋,无疑是近期最受关注的资讯之一。它不仅关乎个人荣誉,更引发了关于学术传承、创新本质与历史记忆的深层思考。对这类技术圈“大事件”的讨论,正是开发者广场这类社区的活力所在。如果你对人工智能领域的演进历史、技术争议或未来趋势有更多见解,欢迎在云栈社区与我们分享和探讨。

参考链接https://x.com/SchmidhuberAI/status/2038989707917271210




上一篇:Claude Code 架构解析:拆解这个106k Star的AI编程智能体框架
下一篇:axios-npm供应链攻击:两个恶意版本植入远程访问木马,百万开发者电脑沦陷
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-7 21:15 , Processed in 0.585151 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表