
近日,英伟达CEO黄仁勋接受了知名播客主持人Lex Fridman的深度访谈。在近两个小时的对话中,黄仁勋不仅复盘了英伟达从游戏GPU公司转型为AI计算巨头的关键决策,更系统性地阐述了其对于人工智能未来发展的核心判断,包括四项全新的扩展定律(Scaling Laws)、AI推理的本质、AGI的现实路径以及未来计算范式的根本性转变。

1. 数据中心的极致协同设计与扁平化管理哲学
当被问及英伟达如何将高带宽内存、网络、供电散热等不同领域的顶级专家聚集起来进行协同设计时,黄仁勋指出,问题的核心在于解决大规模分布式计算中的性能瓶颈。
黄仁勋: 首先,之所以必须进行极致协同设计,是因为现在我们要解决的问题规模已经大到单台计算机或单个 GPU 无法承载。你面临的挑战是,你希望性能的提升速度能够超越硬件堆叠的速度。比如增加了 1 万台电脑,你期望的是百万倍的性能飞跃。这就要求必须从底层重构算法,对流水线、数据和模型进行分片。一旦开始走分布式路线,就不再仅仅是扩大规模的问题,分布过程中的每一个环节都可能成为性能障碍。
他强调,这种复杂性迫使公司采用一种独特的“扁平化”管理模式。他的直属管理团队规模庞大,约有60多人,且几乎全是工程领域的专家。他们从不进行私下一对一沟通,而是将所有问题“摆在桌面上,所有人共同攻坚”。
黄仁勋: 我们从不进行私下的一对一谈话。我们把问题摆在桌面上,所有人共同攻坚。因为我们在做极致协同设计,整个公司随时都在进行跨领域的协作。这种环境能让他们及时发现某个部门的设计是否会影响到配电、内存或其他环节。
2. 复盘“赌上命运”的CUDA战略:如何用GeForce建造AI大厦
回顾英伟达历史上最关键的转型——在GeForce游戏显卡上全线搭载当时看似“无用”的CUDA,黄仁勋坦言,那是一个接近“生存威胁”的决定。
黄仁勋: 决定在 GeForce 上全线搭载 CUDA 是一个极其艰难的战略决策,因为它在当时消耗了公司巨额利润,超出了我们的承受能力。那确实是一个接近生存威胁的决定。当时英伟达的市值从大约 80 亿美元跌到了 15 亿美元。我们在那个低谷徘徊了很久才慢慢爬回来。
他认为,一个计算平台成功的核心在于装机量与开发者生态。通过将CUDA预装在每年售出的数百万块GeForce显卡中,英伟达成功地将超级计算机的能力送到了全球研究人员和学生的桌面上。
黄仁勋: 一个计算平台的核心在于开发者,而开发者看重装机量。开发者希望写的软件能触达更多用户,所以装机量是架构成功的唯一核心。我常说英伟达是 GeForce 建造的房子,因为正是 GeForce 把 CUDA 带给了全世界的研究人员和科学家。
3. 定义四大扩展定律:推理比预训练“难得多”
黄仁勋驳斥了市场上“推理将趋于商品化”的观点,并系统性地提出了人工智能发展的四个扩展定律(Scaling Laws)。
- 预训练扩展:模型规模与数据规模共同扩展,产生更聪明的AI。
- 训练后处理扩展:通过人类反馈、合成数据等方式对模型进行精炼和提升。
- 测试时扩展:即推理(思考)过程的扩展,黄仁勋认为这比预训练“难得多”,且极度消耗算力。
- 智能体扩展:通过快速生成大量AI智能体(Agent)形成团队协作,实现智能的乘法效应。
黄仁勋: 推理本质上就是思考,而我认为思考是极其困难的,它比阅读要难得多。预训练更像是记忆和泛化,是在海量信息中寻找模式,那是不断的阅读。而思考、推理、解决问题、处理未曾经历的新经验……这需要通过第一性原理推理,或者借鉴过往经验,亦或是不断的探索和搜索。整个测试时 Scaling Law 推理的过程,实际上就是关于思考,它是关于推理、计划和搜索。既然如此,推理怎么可能是算力轻量的呢?
他进一步解释,这四个阶段将形成一个自我强化的循环:智能体系统在运行中产生新的数据和经验,这些数据被反馈用于预训练和精炼,从而推动整个系统向更高智能水平演进。而驱动这个循环的最终燃料,就是算力。
4. OpenClaw的里程碑意义:AI Agent时代的“ChatGPT时刻”
在谈及对未来硬件架构的预判时,黄仁勋以最新的Vera Rubin机架为例,说明其设计完全是为了运行需要操作工具的AI智能体。他特别强调了开源项目OpenClaw的划时代意义。
黄仁勋: 我认为 OpenClaw 之于 AI Agent,就像 ChatGPT 之于生成式 AI,这是一件具有里程碑意义的大事。因为消费者可以直接触及它。
他通过一个简单的思想实验推演了AI智能体的必然形态:一个理想的人形机器人进入家庭,更可能的是学习并使用现成的微波炉,而非从指尖发射微波。这要求AI具备研究、学习并使用工具的能力——这正是OpenClaw所实现的核心功能。
关于安全性,英伟达通过OpenShell和NemoClaw等项目介入,采用“三项核心权利只授予两项”的原则(即访问信息、执行代码、外部通信三者不可同时拥有全部权限),并结合企业现有的策略引擎来确保AI智能体的操作安全。
5. 破解扩张约束:预测供应链需求与构建“柔性”电网
面对复杂的全球供应链和日益严峻的能源瓶颈,黄仁勋分享了英伟达的应对策略。他扮演着“行业先知”的角色,主动与上下游供应商的CEO沟通,提前数年塑造他们对未来需求的认知,从而引导产能投资。
黄仁勋: 我不担心供应链瓶颈,因为我正在做所有必要的工作去化解风险。我可以安然入睡,因为我已经把这些待办事项勾掉了。
对于电力问题,他提出了“柔性负载数据中心”的构想。他认为,电网99%的时间都有闲置的富裕电力,数据中心完全可以设计成能在电网需求高峰时主动、优雅地降级运行,而非死板地追求100%全功率在线。
黄仁勋: 我的设想是,我们是否能引导相关方理解并建立合同机制,设计出一种柔性负载的数据中心架构,当社会基础设施急需电力时,数据中心可以主动调低用电量……我们可以通过适度降级性能、减少功耗来应对,虽然响应延迟会稍微增加,但依然能给出答案。
6. 从芯片到“AI工厂”:计算范式的根本性转变
黄仁勋认为,英伟达的护城河在于CUDA庞大的装机量和由此建立的开发者信任生态。而未来的竞争格局将围绕“AI工厂”展开。
他阐释了一个根本性的转变:计算机正从一个“存储检索系统”(仓库)转变为一个“Token生成系统”(工厂)。
黄仁勋: 计算模式正从基于检索的文件系统发生转变。过去几乎所有内容都是预先录制或编写的……我们通过推荐系统或智能过滤器来检索。计算机在很大程度上是一个预录制和文件检索系统。现在的 AI 具备上下文感知能力,这意味着它必须实时处理并生成 Token。我们已经从基于检索的计算系统转向了生成式计算系统。
“工厂”与“仓库”的关键区别在于,工厂直接创造价值和高收入。未来的计算机(AI工厂)将持续产出高价值的Token,这些Token本身将成为可分级的商品,就像今天的iPhone有不同型号一样,未来也会有面向不同场景和需求的Token产品。
7. 关于AGI、职业未来与人类本质的终极思考
当被问及AGI(通用人工智能)的时间线时,黄仁勋给出了一个惊人的回答:
黄仁勋: 我认为就是现在,我们其实已经实现了这种程度的 AGI。完全有可能由 AI 来运行一家公司。
他进一步预测,全球程序员的数量将从现在的约3000万增长到10亿。因为编程的本质将演变为“规格定义”——任何能向AI清晰描述需求的人,都成为了程序员。
黄仁勋: 我确认程序员的数量会增加,因为我们需要重新定义编程。截至目前,编程的本质是规格定义。如果你能描述需求并告诉计算机去构建什么,你就是程序员。这个群体将增长到 10 亿人。未来,每个木匠、会计师都将成为程序员。
面对智能被商品化的未来,黄仁勋区分了“智能”与“人性”。他认为智能是功能性的系统能力,终将被AI掌握并普及。而人性中不可被计算复制的核心,是品格、同情心、对痛苦的耐受力以及坚定的意志。
黄仁勋: 智能并不等同于人性。智能正成为一种通用资源……我们真正应该尊崇的词是品格,是同情心、慷慨和人性。即便在智能曲线上不如身边的人,依然可以成为最成功的人。
这场对话几乎涵盖了AI时代的技术、商业、社会与哲学全景。黄仁勋的逻辑推演展现了一种强大的确定性:通过极致协同设计克服工程挑战,通过扩展定律理解智能进化,通过构建“AI工厂”重塑经济范式。在他看来,未来并非模糊的猜想,而是可以通过第一性原理一步步推演并实现的蓝图。想要紧跟这类前沿的AI技术与产业洞察,持续关注像云栈社区这样的开发者技术交流平台是个不错的选择。