找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

5304

积分

0

好友

734

主题
发表于 3 小时前 | 查看: 4| 回复: 0

传统计算机与神经计算机架构对比图

Meta AI与KAUST联合提出的Neural Computer概念

上周,Meta AI与沙特阿卜杜拉国王科技大学(KAUST)的研究人员悄然发布了一篇长达75页的论文,题为《神经网络计算机》。作者阵容中,除了Meta AI的核心研究员诸葛明晨,还有一位重磅人物——LSTM的发明者,人工智能领域先驱Jürgen Schmidhuber。

这篇论文的核心思想非常明确,用一句话概括便是:让AI模型直接成为一台正在运行的计算机。

这并非比喻或修辞,而是旨在将CPU的计算、内存的存储、以及I/O(输入/输出)功能全部整合进一个单一的神经网络中。换言之,让模型自身完成传统计算机中需要多个硬件模块协作才能完成的任务。

冯·诺依曼架构的挑战与“神经计算机”的构想

我们日常使用的所有计算机——无论是笔记本电脑、智能手机还是服务器——其底层架构都可追溯至1945年提出的冯·诺依曼体系。这套架构将计算、存储、输入输出三部分明确分离,由CPU、内存和各类外设分别负责,再通过总线连接,由操作系统进行调度。

这套体系稳定、可靠且高度可编程,但面对现代AI,尤其是AI Agent的需求时,其瓶颈日益凸显。试想,当一个AI Agent需要操作电脑时,它需要先“看懂”屏幕像素,理解界面,生成鼠标点击指令,等待系统响应,再读取新的屏幕状态……整个过程需要穿越操作系统、API、驱动程序、硬件抽象层等多道“翻译”关卡,效率低下且复杂。

Meta团队的思路相当直接:与其层层翻译,不如让AI直接接管计算机的所有核心功能。

论文中提出了一个关键公式,试图将计算、内存和I/O全部“折叠”进神经网络的隐状态(latent state)$h_t$ 中。这同一个隐状态,将同时扮演计算单元、记忆单元和交互接口的角色。

人类-机器关系演化示意图

可以做一个形象的类比:传统计算机像一家分工极其明确的工厂,车间、仓库、前台各司其职;而神经计算机则更像一个“人”,用同一个大脑(神经网络)完成思考(计算)、记忆(存储)和感知交互(I/O)。

传统计算机与神经计算机核心结构对比图

神经网络作为统一的计算、存储、渲染单元

原型验证:进展与局限

概念颇具颠覆性,但能否实际运行?Meta团队构建了两个原型系统进行验证。他们利用视频生成模型,训练了一个能够渲染命令行终端界面的系统。

社交媒体上关于Neural Computers原型的讨论截图

实验结果呈现出有趣的矛盾:系统的渲染质量非常高,但算术能力几乎为零。

神经计算机生成界面与传统计算机真实界面对比图

模型生成的终端画面在视觉上几乎可以假乱真,颜色、光标闪烁、文本滚动等细节都还原得不错。然而,当要求它执行基础算术任务,如计算“10+15”或“736×644”时,准确率仅有可怜的4%。

这暴露了一个根本性问题:基于视频生成训练出的模型,本质上学习的是“画面应该长什么样”的像素统计规律,而非“如何进行符号计算”的逻辑推理过程。 它或许能完美绘制出Python REPL交互界面的样子,但让它真正执行其中的计算,则是另一回事。

不过,论文中一个关键实验提供了重要启发:如果显式地将光标作为一个“视觉对象”进行建模和处理,在每一帧中让模型学习渲染这个特定元素,算术准确率竟能从4%大幅提升至98.7%。

这一发现暗示,对于当前以视觉为中心的模型而言,具象的、连续的视觉信号远比抽象的、离散的数值信号更容易学习和处理。

控制网络与模型网络结构示意图

前景分析:方向正确,但道路漫长

那么,这一构想究竟意味着什么?我的判断是:研究方向极具前瞻性,但通往实用化的道路仍十分漫长。

支持这一方向的理由如下:

  1. 当前AI Agent的效率瓶颈确实存在。如今的Agent在操作外部环境(如电脑)时,需要经过多重“翻译”层,这严重制约了其响应速度和灵活性。若能消除这些中间层,实现AI对计算过程的直接、原生控制,将带来质的飞跃。
  2. 计算范式正处于变革窗口期。从大型机到个人电脑,再到移动计算,每次平台迁移都伴随着交互方式的革命。神经计算机代表了一种从“执行显式程序”到“运行学习型模型”的根本性范式转变,其潜在影响力可能不亚于冯·诺依曼架构的提出。
  3. 研究团队具备深厚的理论和技术储备。论文作者阵容强大,诸葛明晨在生成式模型方面有深入研究,而Schmidhuber更是早期“可微分世界模型”概念的提出者之一。他们并非空谈理论,而是给出了初步的技术路线图。

然而,面临的挑战同样严峻:

  1. 符号与逻辑推理能力薄弱。4%的算术准确率是一个醒目的警示,表明现有神经网络在处理抽象符号和进行严格逻辑计算方面仍是短板。生成一张计算结果的“图片”和“执行”一次计算,有着天壤之别。
  2. 长期运行的一致性未经验证。目前实验多在短序列(约5秒)上进行。在长时间、复杂任务中,神经网络的隐状态是否会漂移、行为是否会退化或失控,仍是未知数。
  3. 距“完全神经计算机”目标甚远。论文提出了“完全神经计算机”(Completely Neural Computer, CNC)的长期目标,要求满足图灵完备、通用可编程、行为一致、具备机器原生语义等四个条件。坦率地说,现有原型离满足其中任何一条都还有相当距离。

传统计算机、超级代理与完全神经计算机对比表格

潜在影响:如果成功,将重塑技术栈

倘若神经计算机的愿景最终得以实现,其影响将是颠覆性的:

  • 软件业重构:编程可能从编写“精确的指令序列”转变为“描述意图和目标”。自然语言或交互演示本身将成为主流的“编程”方式。
  • 硬件业洗牌:传统CPU、GPU、内存条的设计思路可能面临根本性挑战。专为并行矩阵计算优化的GPU,在“神经计算”新范式下,其核心地位可能需要重新定义。
  • AI Agent质变:Agent将不再是调用外部工具的“脚本”,而是自身就蕴含了工具的能力。它将获得更深层次的“自主性”和对任务的原生理解。

世界模型概念插图

冷静看待:一个激动人心的可能性

最后需要强调的是,Meta这篇论文的最大价值,并不在于其展示的原型有多成熟可用,而在于它大胆地指出了一个全新的研究方向和技术可能性

过去几十年,计算机基础技术的发展主旋律是“性能叠加”——更快的时钟频率、更大的内存容量、更高效的操作系统。而神经计算机的思路是“范式替换”——不是让现有计算机变得更强,而是思考AI本身能否成为一种全新的计算机。

这个方向是否正确?从技术演进的逻辑看,值得探索。但它能否成功?何时能成功?答案依旧隐藏在重重迷雾之中。

Meta AI关于Neural Computers的论文摘要截图

诸葛明晨在其相关博文中曾提到一个深刻观点:“未来的神经计算机或许不应简单地模仿大脑,而应借鉴传统计算机的设计哲学,使用离散的、稀疏的、可验证的计算原语来构建。”

这句话点明了未来的融合路径。终极形态的神经计算机,很可能既非今日的深度神经网络,也非经典的冯·诺依曼架构,而是汲取两者精华后诞生的一种全新“物种”。

对于开发者和技术爱好者而言,关注此类前沿探索有助于拓宽视野,理解AI与系统深度融合的下一代可能。若想深入交流或查看更多硬核技术解读,也欢迎来云栈社区逛逛。至于现在,我们的笔记本电脑和服务器,仍将在可预见的未来,继续基于冯·诺依曼架构稳定运行。




上一篇:AI工具栈如何支撑一人十亿美元公司?解析Medvi的AIGC效率神话
下一篇:英伟达NVIDIA Ising开源量子AI模型发布,精准破解校准与纠错难题
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-16 21:56 , Processed in 0.661017 second(s), 40 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表