找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4768

积分

0

好友

623

主题
发表于 昨天 22:55 | 查看: 23| 回复: 0

英伟达CEO黄仁勋接受访谈

4月16日,英伟达CEO黄仁勋接受了海外知名播客主持人Dwarkesh Patel的深度访谈。在超过两个小时的对话中,黄仁勋不仅详细阐释了英伟达如何掌控复杂的供应链,还深入探讨了从“电能到Token”的转换模型、加速计算与专用芯片的竞争、全球AI格局演变,以及敏感的半导体出口管制等核心议题。

黄仁勋提出了一个核心观点:英伟达的本质任务是将电能高效转化为具有高价值的“Token”。这个过程融合了复杂的科学创造与顶尖工程技术,其壁垒难以被简单“平庸化”。他认为,公司真正的护城河在于其庞大的下游需求与上游供应链之间达成的深度战略协同。

关于备受关注的中美AI竞争与芯片供应问题,黄仁勋的见解颇为直接。他指出,丰富的能源可以弥补芯片性能的不足,而充足的芯片也能缓解能源的瓶颈。中国作为全球第二大计算市场,不仅拥有巨大的算力基数,更具备强大的算力聚合能力。AI本质是并行计算,在能源充足且廉价的条件下,完全可以通过增加芯片数量来弥补单颗芯片的性能差距。他更是指出,中国垄断了全球主流芯片市场60%以上的产能,认为其无法获得AI芯片的想法是站不住脚的。

针对出口管制政策,黄仁勋警告称,主动放弃中国市场将迫使对方发展出独立的、自有标准的技术生态。如果未来全球主流的AI模型在开发时优先适配非美国硬件,美国将丧失对全球技术标准的掌控力,这种政策导向在他看来是“不可理喻”的。

01 英伟达的护城河与高价值Token

提问:目前许多软件公司的估值因AI可能带来的“平庸化”预期而缩水。一种观点认为,英伟达只是将设计文件发给台积电制造,封装SK海力士、美光的内存,最后由ODM厂商组装。如果软件走向平庸化,英伟达是否也会面临同样命运?此外,英伟达财报中披露了高达千亿美金的采购承诺,这是否才是你们真正的护城河——通过提前锁定稀缺产能,让对手即使有研发能力也无法获得制造资源?

黄仁勋:归根结底,必须有某种载体将电能转化为Token。这种从电能到Token的转换,以及随时间推移让这些Token产生更高价值的过程,是很难被完全平庸化的。这就像赋予一个分子比另一个分子更高的价值。为了提升Token的价值,我们投入了大量的艺术灵感、工程技术、科学研究和发明创造。这种转换、制造以及其中蕴含的科学远未被完全理解,这段旅程也远未结束,我不认为它会走向平庸。

当然,我们会不断提升它的效率。你构思问题的方式其实就是我管理公司的思维模型:输入是电能,输出是Token,中间环节就是英伟达。我们的任务是确保这种转换能以惊人的效能完成。所谓的“尽可能少做”,是指任何不需要我亲自操刀的任务,我都会通过合作伙伴将其纳入我的生态系统。

观察今天的英伟达,你可能拥有全球最庞大的合作伙伴生态系统,涵盖了供应链的上下游、所有的计算机公司、应用开发者和模型厂商。如果把AI比作一块五层蛋糕,我们在每一层都建立了生态。我们力求精简自身业务,但那些必须由我们完成的核心部分,其难度是极高的。

事实上,我也不认为企业软件公司或工具厂商会没落。如今大多数软件公司都是工具商。我的看法与大众相反,我认为AI Agent的数量将呈指数级增长,工具用户的规模也会同步爆发。新思科技的Design Compiler实例数量很可能会激增。今天我们受限于工程师的人数,而明天,这些工程师将得到大量AI Agent的支持。我们将以前所未有的深度去探索设计空间,而这一切依然要依赖现有的工具。我认为工具的使用将推动软件公司业绩腾飞。

(关于提前锁定供应链产能)这确实是我们能做到而别人很难效仿的事情。我们在上游投入了巨大的承诺,有些是显性的采购合同,有些则是隐性的。例如,上游供应链之所以愿意投入巨资,是因为我曾对那些首席执行官们阐释行业前景,带他们看看我眼中的未来。

正是这种对上游进行信息同步、愿景激励与战略对齐的过程,让他们愿意跟进投资。为什么他们愿意为我投资而不是别人?因为他们知道英伟达有能力消耗掉这些供应,并通过我们庞大的下游渠道销售出去。事实就是,英伟达的下游需求规模如此巨大,以至于供应商们敢于在上游提前布局。

在GTC大会上,整个AI宇宙都汇聚一堂。我把他们聚在一起,是为了让下游看清上游,让上游洞察下游,并且所有人都能共同见证AI的进步。更重要的是,他们能在这里接触到所有的AI初创公司,亲眼看到正在发生的奇迹,从而印证我之前告诉他们的一切。我花费大量时间,向我们的供应链、合作伙伴和生态系统阐释面前的机遇。

关于护城河,重点在于我们有能力为未来做建设。如果未来几年的规模达到万亿美元级别,我们已经准备好了相应的供应链。如果没有我们的行业触达深度和业务周转效率,没人愿意为一个特定的架构去重塑供应链。我们能维持这种规模,唯一的原因就是下游需求极其强劲。

02 是否已经进入受限于上游供应而导致的算力增长放缓的阶段?

提问:英伟达的营收每年翻倍,全球浮点运算能力供应每年递增三倍以上。作为台积电N3/N2工艺最大客户之一,预测AI行业明年将占据N3产能的86%。在占据如此高份额的情况下,你打算如何继续维持翻倍增长?我们是否已进入受限于上游供应、导致算力增长率不得不放缓的阶段?

黄仁勋:在目前的量级上还能实现翻倍,确实非常惊人。在某种程度上,全球上下游的瞬时需求确实大于供应。在任何一个时间点,我们都可能受限于基础建设人员的数量,这种情况确实发生过。

(关于基础设施人才建设)不过这是个好兆头。你肯定希望身处一个瞬时需求大于行业总供应的行业。反之则会很糟糕。如果缺口太大,或者某个特定组件成了短板,整个行业就会蜂拥而至去解决它。比如,你会发现现在人们已经不太讨论CoWoS封装了。

原因在于,过去两年我们调集了所有力量疯狂攻克这个难点,产能翻了又翻。目前我认为情况已经相当不错。台积电现在很清楚,CoWoS的供应必须跟上逻辑芯片和内存的需求节奏。他们正在以扩展逻辑芯片同样的力度来扩展CoWoS和未来的封装技术。这太棒了,因为在很长一段时间里,CoWoS和HBM都被视为小众需求,但现在它们已成为主流计算的核心技术。

当然,我们现在对供应链的影响力也大得多。我五年前就在说这些话。当时有些人信了并投入其中,比如美光团队。我依然清楚地记得那次会议,我明确阐述了未来的走向,他们当时果断加倍下注。我们在LPDDR和HBM内存领域展开合作,他们也倾力投入。虽然有些人反应慢一点,但现在大家都在这条船上了。

每一个瓶颈都会得到极大的关注。现在我们会提前几年去预判并解决这些瓶颈。比如,过去几年我们对Lumentum、Coherent以及硅光子生态系统的投资,真正重塑了供应链。我们围绕台积电构建了完整的供应链。我们与其合作开发COUPE技术,发明了一系列新技术,并将这些专利授权给供应链,以保持生态的开放性。

我们正在通过发明新技术、新工作流、新测试设备、投资入股并协助扩大产能,全方位地武装供应链。你可以看到,我们正努力塑造整个生态系统,确保供应链有能力支撑这种规模。

03 AI扩张的终极限制

提问:虽然扩展CoWoS和逻辑芯片产能相对容易,但你到底如何做到每年让逻辑芯片产量翻倍?这些都受限于ASML的EUV光刻机。英伟达的触角是否已经伸到了供应链最深处,会直接联系ASML对未来几年的机器需求做预判吗?在各种潜在瓶颈中,什么才是你真正担心的?

黄仁勋:我刚才提到了最难的一个,那就是基础建设人员,包括水管工和电工。这是我对那些宣扬工作终结论者的担忧之一。如果我们劝阻年轻人不再学习软件工程,我们就会面临软件工程师短缺。十年前也有同样预言,说放射科将是第一个被取代的职业。结果呢?现在我们最缺的就是放射科医生。

(关于EUV光刻机扩产)这些都不是无法快速扩展的难题。只要有两三年的时间,这些都很容易实现。你只需要一个清晰的需求信号。只要你能造出一台,你就能造出十台;能造出十台,就能造出一百万台。这些工业产品的可复制性并不难。

(关于直接沟通供应链)有些我得直接联系,有些是间接的。如果我能说服台积电,那么ASML自然就会被说服。我们必须关注那些关键的咽喉节点。但只要台积电有信心,几年后你就会有充足的EUV机器。

(关于计算效率与能源)我的观点是,没有任何一个瓶颈会持续超过两三年。与此同时,我们正将计算效率提升10倍到20倍,在从Hopper到Blackwell架构的跨越中,提升了30到50倍。因为CUDA非常灵活,我们能不断研发新算法。我们开发各种新技术,在增加产能的同时,从算法层面榨取效率。

这些我都不担心。我真正担心的是我们下游的环节,比如能源政策。没有能源,你无法创造一个行业,更无法创造一个全新的制造业。我们想要实现重新工业化,带回芯片制造、计算机制造和封装,打造电动汽车和机器人,建立AI工厂。没有充足的能源,这些都无从谈起,而能源基础设施的建设周期要长得多。增加芯片产能是2到3年的事,增加CoWoS产能也是如此,但能源设施的建设周期要长得多。

04 TPU会打破英伟达对AI计算的掌控吗?

提问:目前Claude和Gemini都在谷歌的TPU上训练,这对英伟达的未来意味着什么?虽然GPU灵活,但针对AI场景下极其规律的矩阵乘法,TPU的脉动阵列架构似乎更具针对性优势。在同等成本下,这种专用性是否会削弱英伟达的竞争力?

黄仁勋:我们制造的是完全不同的物种。英伟达打造的是加速计算,而不仅仅是一个张量处理单元。加速计算的应用场景极其广泛,包括分子动力学、量子色动力学、数据处理、流体动力学和粒子物理。此外,我们才将其应用于AI。

加速计算的多样性要高得多。虽然AI是当下的热门话题,但计算的范畴要广阔得多。英伟达重新定义了计算方式,实现了从通用计算向加速计算的范式转移。我们的市场覆盖面远非任何TPU或ASIC所能企及。我们是唯一一家能加速各类应用并拥有庞大生态系统的公司,各种框架和算法都能在英伟达平台上跑通。

因为我们的计算机是为开放操作而设计的,任何运营商都可以购买我们的系统。而大多数自研系统,你必须自己当运营商,因为它们在设计之初就没考虑过为他人提供足够的灵活性。正因为任何人都能运营我们的系统,所以我们在各大云平台上无处不在。

如果你想做算力租赁生意,你最好拥有一个跨越多个行业的庞大客户群。如果你想自用,我们也有能力帮你搭建并运营,就像我们为xAI所做的那样。因为我们能赋能任何公司、任何行业的运营商,你可以利用它为礼来制药这样的公司建立科学研究和药物研发超级计算机。

有大量的应用场景是TPU无法触及的,而我们能解决。英伟达同样将CUDA打造得非常出色,它本身就是一个极其强大的张量处理单元,但它同时还能处理数据处理、科学计算、AI等全生命周期的任务。我们的市场机遇大得多,触达范围也广得多。

(关于矩阵乘法与架构优化)矩阵乘法运算是AI的重要组成部分,但并非全部。如果你想开发新的注意力机制,以不同的方式进行资源解耦,或者发明一种全新的架构,例如混合SSM,你需要一种通用的可编程架构。英伟达支持你能想象到的一切计算需求。这就是我们的优势所在,作为一个可编程系统,它让新算法的发明变得容易得多。

发明新算法的能力是推动AI飞速进步的核心动力。TPU和其他任何硬件产品一样,都受到摩尔定律的影响,其性能每年增长约25%。而想要实现10倍甚至100倍的性能飞跃,唯一的办法就是每年从根本上改变算法及其计算方式。

这就是英伟达的根本优势。我们之所以能实现Blackwell相比Hopper性能提升50倍,是因为我们采用了新的模型,例如专家混合模型,并在计算系统中实现并行化、解耦化和分布式运行。如果没有深入底层并利用CUDA开发新算子的能力,这一切将极难实现。

这是我们架构的可编程性与英伟达极端的软硬协同设计能力的结合。我们甚至可以将部分计算卸载到交换架构本身,例如NVLink,或者通过Spectrum-X卸载到网络中。我们可以同时对处理器、系统、交换架构、算力库和算法进行变革。

05 CUDA生态与TCO的飞轮效应

提问:英伟达约60%的收入来自五大超大规模云服务商。这些巨头拥有编写自研算子的资源,例如使用Triton、vLLM等框架,甚至深入到CUDA C++层面以获取最后5%的性能,这是否意味着他们正在开发CUDA的替代品?如果主要客户不再依赖英伟达的特定算力库,竞争是否会演变成纯粹的硬件规格竞赛?在客户有能力负担替代成本的情况下,英伟达还能否维持70%以上的利润率?

黄仁勋:我们派驻到这些AI实验室的工程师数量多得惊人,协助他们优化技术栈。原因在于,没有人比我们更了解英伟达的架构。这些架构不像CPU那样通用,CPU就像是易于操控的普通轿车。而英伟达的GPU和加速器则更像是F1赛车,虽然每个人都能开到一定速度,但要将其推向极限,需要极其深厚的专业知识。我们甚至使用大量AI来生成我们的算子。

(关于性能优化带来的商业价值)我敢肯定,在相当长的一段时间内,英伟达仍是不可或缺的。我们的专业知识通常能帮合作伙伴的技术栈性能轻松翻倍。当我们完成对他们技术栈或特定算子的优化后,模型提速2倍、3倍甚至50%是常有的事。对于拥有大量Hopper和Blackwell的集群来说,性能翻倍就意味着收入翻倍,这会直接体现在财报上。

(关于总拥有成本的竞争优势)英伟达计算栈的总拥有成本性价比是全球领先的。目前没有任何一个平台能向我证明其性能与总拥有成本的比率优于我们。事实上,现有的基准测试,比如InferenceMAX是公开的,TPU和Trainium却不敢应战。我鼓励他们使用InferenceMAX来展示其所谓的推理成本优势,但这很难实现。在MLPerf测试中,我也欢迎Trainium来证明他们一直声称的40%优势。

(关于客户选择英伟达的深层逻辑)我认为我们成功的原因很简单,因为我们的总拥有成本极其出色。其次,你提到60%的收入来自前五大客户,但那部分业务大多是面向外部的。例如,亚马逊云服务中的大部分英伟达资源是租给外部客户的。他们青睐英伟达,是因为我们的市场触达能力极强。我们可以为云厂商带来全球最优质的客户,因为这些客户都构建在英伟达之上。而这些客户选择英伟达,又是由于我们的多功能性和触达能力。

所以,这里的飞轮效应在于装机量、架构的可编程性、生态的丰富性,以及庞大的AI公司群体。现在全球有数万家AI初创公司。如果你是其中之一,你会选哪种架构?你一定会选资源最丰富、装机量最大、生态最完备的那一个。

这就是飞轮。首先,我们的性价比极高,让客户能以最低成本产出Token。其次,我们的每瓦性能全球最高。如果合作伙伴建立了一个1吉瓦的数据中心,他们必然希望该中心能产出最多的Token。我们是全球每瓦Token产出最高的架构。最后,如果你想出租基础设施,我们拥有全球最多的客户。这就是飞轮运转的逻辑。

06 顶级AI实验室的算力博弈

提问:虽然有成千上万家初创公司,但算力消耗的主力依然是Anthropic、OpenAI等顶级实验室。如果英伟达在纸面数据上更有优势,为什么Anthropic仍选择与谷歌和博通达成协议使用TPU?这种从全盘依赖英伟达向多元化算力构成的转变,是否意味着英伟达正在失去对核心客户的掌控?

黄仁勋:等下,让我先纠正你的前提。Anthropic是一个特例,而非趋势。如果没有Anthropic,TPU哪来的增长?其增长100%来自Anthropic。如果没有Anthropic,Trainium哪来的增长?同样100%来自Anthropic。这是业界公认的事实。并不是说ASIC市场机会遍地开花,事实上只有一个Anthropic。

(关于OpenAI与AMD的合作)是的,但我们都必须承认,他们绝大部分算力依然依赖英伟达。我们仍将紧密合作。我并不介意别人尝试新事物。如果他们不尝试,怎么会知道我们的产品有多好?有时候人是需要对比提醒的。我们必须不断证明自己,才能赢得现有的地位。

(关于自研ASIC的利润逻辑)市场上总有各种夸大的宣传。看看有多少ASIC项目最终被取消了。仅仅构建一个ASIC是不够的,你必须构建出比英伟达更好的东西,而这极其困难。除非英伟达真的错失了什么重大机遇,否则凭借我们的规模和研发速度,作为全球唯一一家能每年推出跨越式新品的公司,别人很难超越。

(关于客户自研是否为了省下70%的利润率)不,别忘了,即使是ASIC领域,利润率也非常高。假设英伟达是70%,ASIC也有65%。你实际省下了多少?你总得付钱给某人。据我观察,ASIC厂商的利润率极高,他们也以此为傲。

(关于英伟达早期的战略失误)所以,你问为什么。很久以前,我们只是没能力去做某些事。当时我没有深刻意识到,像OpenAI和Anthropic这样的基础AI实验室需要供应商提供巨额投资。我们当时没法给Anthropic投几十亿美元让他们用我们的算力,但谷歌和亚马逊做到了。他们早期投入巨资,换取了Anthropic使用他们的算力。

我得承认那是我的失误,我没意识到他们当时真的走投无路。但即使当时我意识到了,恐怕也没有足够的实力去投。但我不会再犯同样的错误。我很乐意投资OpenAI并帮助他们扩展规模,我认为这是必不可少的。后来当Anthropic接触我们时,我也很乐意成为投资者并支持他们。我们当时只是力有不逮。如果时光可以倒流,如果当时的英伟达像现在这样强大,我绝对会欣然投资。

07 为什么英伟达不转型为超大规模云服务商?

提问:英伟达目前手握巨额现金流,为什么不更早地成立自己的基础模型实验室或进行更大规模的投资?既然算力产生的Token价值巨大,英伟达为何不直接转型为云服务商,亲自出租算力,而是选择支持CoreWeave等公司甚至为其提供信贷担保?在GPU供应短缺的情况下,英伟达在分配资源时是否在有意干预市场格局,引导资源流向特定的新型云服务商?

黄仁勋:我们已经尽力在第一时间采取行动了,如果条件允许,我甚至希望能够更早。但在Anthropic需要支持的早期阶段,我们还没有做好这种跨界投资的准备,这在当时并不符合我们的经营直觉。这主要是投资理念的转变。当时英伟达很少进行外部投资,也没意识到这其中的紧迫性。我原本认为这些初创公司完全可以通过风险投资来募集资金,但后来我意识到,OpenAI和Anthropic所追求的目标,规模之大是传统风投模式无法支撑的。

(关于英伟达不直接做云的原因)这涉及英伟达的核心经营哲学,即行必要之事,尽克制之责。这意味着,如果有些核心计算平台的工作我们不去推动,行业就无法取得突破。如果我们不承担风险去开发NVLink互连技术,不构建完整的软件栈,不坚持20年在CUDA生态上持续投入,那么现在的AI基础设施可能根本不会存在。

我们投入巨大精力开发CUDA-X库,针对特定领域进行深度优化。早在十五年前,我们就意识到如果不亲自开发针对光线追踪、图像生成甚至是早期AI模型的专用库,不针对结构化数据和矢量数据处理构建工具,这些领域就不会有进展。我们为计算光刻开发的cuLitho库也是如此。如果我们不亲力亲为,加速计算的演进速度绝不会达到今天的水平。

因此,我们必须全身心地投入到这些领域。但是,全球已经存在许多成熟的云服务商了,即便英伟达不参与,这个市场也会自然发展。所以根据“尽克制之责”的原则,我们选择不直接参与云服务竞争,我所做的一切决策都遵循这个视角。

(关于支持CoreWeave等新型云服务商)在云服务领域,如果我们不支持CoreWeave这样的新型云服务商,专门的AI云生态就无法形成。同样的,通过我们的支持,Nscale和Nebius等公司也取得了今天的成就。我们投资生态系统,是因为希望整个行业能够繁荣。我希望这种技术架构能够赋能尽可能多的行业和国家,让全球的数字化进程都能建立在AI和先进的技术栈之上。

(关于是否“挑选赢家”)我们倾向于广泛支持而非定点扶持。我们不预设谁是最终的赢家,而是为所有人提供助力,这既是我们的商业逻辑,也是我们的乐趣所在。首先,这不属于我们的职责范围。其次,回看英伟达的起步阶段,当时市场上有60家3D图形芯片公司,最终只有我们生存了下来。如果当时预测谁能胜出,英伟达很可能是最被看衰的那一个。

(关于稀缺资源的分配逻辑)这个说法(干预市场)并不准确。我们在资源分配上非常严谨。首先,所有的分配都必须基于正式的采购订单。由于芯片和数据中心的建设周期极长,我们必须通过订单进行精准预测,将供应与需求对齐,这是我们的首要任务。

其次,即便有订单,如果客户的数据中心建设进度滞后,或者相关配套组件未到位,导致算力无法立即投入使用,我们就会根据工厂的产出效率,将资源优先调配给已经准备就绪的客户。除此之外,我们严格遵循先到先得的原则。关于甲骨文和特斯拉的负责人与我晚宴时“乞求”GPU的传闻纯属误传。那是非常愉快的商业交流,他们只需按照流程下单,我们就会尽全力保障交付。英伟达的运作逻辑非常透明,并不复杂。我们绝不采取价高者得的模式,因为那是不健康的商业实践。

08 英伟达与台积电的深度协作

提问:英伟达与台积电能够保持长达30年稳固关系的核心原因是什么?这种关系是否真的不需要严苛的法律合同来约束?作为行业基石,英伟达除了提供芯片外,在交付保障和成本控制方面为客户提供了哪些具体的确定性?

黄仁勋:是的,英伟达与台积电的合作已近30年。我们之间甚至不需要严苛的法律合同,而是一种基于动态平衡的深度协作。虽然在具体的交易中互有得失,但总体上这种信任关系是不可替代的。

英伟达最核心的价值在于确定性。今年是Vera Rubin架构,明年是Vera Rubin Ultra,后年是Feynman。你可以把整个业务和未来都押在英伟达身上,因为我们会准时交付,且每年的Token成本都会呈数量级下降,这就像物理定律一样准确。

历史上没有哪家代工厂能像台积电这样可靠,也没有哪家AI公司能像英伟达这样提供如此稳定的技术迭代。无论订单规模是1亿美元还是1000亿美元,我们都是全球唯一能提供这种交付保障的公司。这种作为行业基石的地位,是数十年的专注与投入换来的。

09 中美AI竞争与AI芯片供应

提问:关于中国的芯片供应策略,如果具备极强网络安全风险的模型(如Anthropic的Mythos)被广泛获取,并用于发现系统漏洞或发起大规模自动化攻击,是否会对全球防御体系构成系统性挑战?既然算力优势被视为美国实验室抢占先机、修补漏洞的关键,那么利用算力限制来让社会提前做好防御,是否才是更合理的策略?如果AI已经进化到能显著提升寻找漏洞的生产力,难道不该限制中国率先获取这种能力吗?

黄仁勋:Mythos模型是在极其平庸的算力规模上训练出来的,虽然背后的公司非常卓越,但其训练所需的算力总量和计算类型在中国完全可以实现。首先必须意识到,中国并不缺少芯片。他们制造了全球超过60%的主流芯片,这是一项规模庞大的产业。中国拥有全球最顶尖的一批计算机科学家,目前全球各大AI实验室中,半数以上的AI研究人员都是华人。

考虑到他们已经拥有的资源,包括丰富的能源、充足的芯片和顶尖的AI人才,如果你担心潜在的竞争,创造安全世界的最佳方式并非将其边缘化或视为对手。虽然双方存在竞争,我们也希望美国能保持领先,但加强科研对话才是最稳妥的做法。由于目前将对方视为单纯竞争对手的态度,这方面的沟通正严重缺失。两国的AI研究人员保持实质性对话至关重要,双方应努力就AI的禁止用途达成共识。

关于利用AI寻找软件漏洞,这正是AI的职能所在。它必然会发现大量软件漏洞,因为目前的软件世界乃至AI软件本身都存在诸多缺陷。我很欣慰AI已经进化到能够显著提升生产力的阶段。目前被低估的一点是围绕网络安全、AI安全、隐私保护及安全防护领域的生态丰富性。大量的AI初创公司正在构建未来,届时一个强大的AI Agent将由成千上万个AI Agent环绕监控,确保其安全稳固。那种让AI Agent在无人监管下运行的想法非常荒谬。这个生态系统需要蓬勃发展,而这离不开开源、开放模型和开放栈,以便让科学家构建出足够强大的AI系统。中国在开源生态中贡献巨大,我们不应限制其发展。

(关于全球技术栈的统一)我们自然希望美国拥有尽可能强的算力。虽然能源是目前的限制因素,但我们正在全力解决,不能让能源成为国家发展的瓶颈。同时,我们要确保全球AI开发者都在美国的技术栈上进行开发。无论AI取得何种进展,特别是开源领域的成果,都能反馈并惠及美国的生态系统。如果最终形成两个割裂的系统,一个是运行在非美技术栈上的开源生态,另一个是运行在美国技术栈上的封闭系统,那对美国而言将是极其糟糕的结果。

提问:尽管中国拥有人才,但受限于芯片制造出口管制,他们无法获得EUV,制程可能停留在7纳米,这是否意味着其产出总算力远低于美国?如果算力是提升研究人员生产力的核心和全球瓶颈,中芯国际和华为等团队也曾表示算力受限,那么这种算力差距难道不是一种有效的战略缓冲吗?如果带宽差距接近一个数量级,对方如何能通过简单的芯片堆叠来弥补性能鸿沟?

黄仁勋:美国理应保持领先并拥有更多算力,但若要实现你所说的局面,除非能让对方完全失去算力,这在现实中并不成立。中国作为全球第二大计算市场,拥有巨大的算力基数,且具备极强的算力聚合能力。中芯国际在工艺节点上虽然相对落后,但中国拥有惊人的能源储备。AI本质上是并行计算问题,在能源充足且廉价的情况下,完全可以通过增加芯片数量来弥补单颗芯片的性能不足。中国拥有大量电力充沛的数据中心,基础设施冗余巨大,只要他们愿意,即便使用7纳米芯片也能通过大规模集群实现目标。中国制造芯片的能力位居全球前列,垄断了主流芯片市场且产能过剩,认为其无法获得AI芯片的想法是站不住脚的。对于你担忧的风险,他们已经跨越了所需的算力门槛。

你需要理解AI架构可以分为五层,最底层是能源。丰富的能源可以弥补芯片的劣势,而充足的芯片也可以弥补能源的不足。例如,美国目前能源相对匮乏,因此英伟达必须通过极致的架构创新和软硬件协同设计,确保每颗芯片在有限的能源下实现极高的吞吐量。但在能源几乎免费的环境下,每瓦性能就不再是首要考量。7纳米芯片在性能上基本等同于Hopper架构,而当今的主流模型大多是在这一代架构上训练的,因此7纳米芯片完全够用。能源优势才是他们的核心竞争力。华为已经通过创纪录的年度业绩证明了其量产能力,其出货的芯片数量巨大,远超Anthropic等公司所拥有的规模。

(关于存储与连接技术)事实证明,他们拥有充足的逻辑芯片和HBM2显存。华为本质上是一家网络通信公司。即便不依赖EUV,完全可以通过类似NVL72的连接方式,利用硅光子技术将计算节点聚合为巨型超级计算机。你的前提假设存在偏差。事实是,他们的AI发展非常顺利。

全球最顶尖的AI研究人员在算力受限的情况下,会开发出极其精妙的算法。虽然硬件遵循摩尔定律每年进步约25%,但通过计算机科学的创新,算法性能可以实现十倍增长。计算机科学才是真正的杠杆。混合专家模型是伟大的发明,注意力机制也极大地减少了对算力的需求。我们必须承认,AI的大部分进步源于算法创新而非单纯的硬件。既然如此,庞大的AI研究人才储备正是他们的核心优势。DeepSeek的突破就是明证,这类进展并非微不足道。如果有一天DeepSeek这种级别的模型率先适配华为的架构并首发,那才是美国真正的危机。

提问:即便模型是开源的,理论上可以在任何加速器上运行。为什么如果中国公司先研发出了下一代模型,会对美国构成危机?如果模型本身不限制运行平台,这种先发优势如何转化为硬件层面的竞争劣势?

黄仁勋:即便模型本身不限制,但如果它是针对华为架构进行极致优化的呢?这会让我们的硬件处于劣势。你之前提到的模型在美国技术栈上运行得最好是好消息。而我要告诉你坏消息,如果全球的AI模型在开发时都优先适配非美硬件,那才是美国的损失。我就是最好的证据,你试着把一个针对英伟达优化的模型换到其他平台上跑跑看,效果绝不会更好。英伟达的成功已经证明,模型在我们的技术栈上诞生,自然在我们的栈上运行得最快。为了实现跨平台迁移,必须投入巨大的工程成本。如果全球南方国家和中东地区开箱即用的AI模型都在别人的硬件上表现最优,这绝非美国所乐见。

(关于网络安全风险与技术栈的关系)这当然不好,所以我们绝不能让这种情况发生。他们的芯片产业规模极其巨大。虽然单颗芯片的算力或带宽指标可能只有H200的一半到三分之一,但他们可以通过使用双倍或三倍的数量来弥补,而且他们极其擅长大规模制造。如果接下来的几年是关键窗口期,那么我们就必须确保全球所有的AI模型都是基于美国技术栈构建的。

提问:有一种观点认为,向中国销售芯片就像波音公司卖导弹外壳给对手,这实际上是在向对方输出核心能力。AI和浓缩铀很像,具有双重用途,如果算力能运行一个发起攻击的模型,难道不该被视为武器吗?如果你向对方输出芯片,如何保证美国能长期获胜?如果芯片已经在那里了,英伟达如何掌控?

黄仁勋:把AI类比成核弹简直是疯了。这个比喻很糟糕,完全不合逻辑。首先,解决这个问题的途径是与研究人员对话、与相关国家及地区进行沟通,确保技术不被滥用。这种对话是必须进行的。其次,我们必须确保在技术上保持绝对领先,确保Blackwell架构在本土有充足的供应,堆积如山。我们的业绩已经证明了这一点,算力资源极其充沛。我们拥有全球顶尖的AI研究人员,这很棒,我们理应保持领先。

然而,AI不仅仅是一个模型,它是一个五层架构。AI产业在每一个层级都至关重要,我们希望在每一层都取得胜利,包括芯片层。拱手让出全球主要市场,并不能让我们在芯片层和计算栈的长期技术竞赛中获胜,这是事实。

(关于芯片作为工业产品的属性)芯片不是浓缩铀。它是芯片,而且是对方也能制造出来的工业产品。我们的芯片更好,各方面都更好,这是毫无疑问的。但在没有我们芯片的情况下,华为依然度过了创纪录的一年,大量芯片公司已经上市。我们曾经在中国市场拥有巨大份额,而现在却在流失。中国市场占据了全球技术产业约40%的版图。为了单一的理由而让技术产业放弃那个市场,是对竞争力的损害,也是对技术领导地位的损害,这完全不可理喻。

如果没有更好的选择,人们当然会选择唯一的备选方案。这非常符合逻辑。我们当然会提供算力,因为这能让我们获胜。别忘了,我们能因此维持技术领导地位,让开发者留在我们的技术栈上。当AI模型扩散到全球时,我们的技术栈将成为事实标准。这种技术的推进和传播是全球领导力的重要组成部分。过去的某些政策导致本土电信产业被挤出全球市场,以至于现在我们无法完全掌控某些通信领域。这种狭隘的做法会导致意外的后果。

(关于放弃中国市场的潜在代价)我也可以告诉你另一种潜在成本:如果我们让AI栈中最重要的芯片层拱手让出全球第二大市场,就会促使对方发展出自己的规模和生态,导致未来的AI模型针对完全不同的技术栈进行优化。随着AI扩散到全球,由于他们的模型是开源的,他们的标准和技术栈可能会变得更具优势。中国是全球开源软件和开放模型的主要贡献者,而目前这一切都建立在英伟达的技术栈之上。AI的五层架构都很重要,我们应该赢得每一层。其中最关键的是应用层,谁用得最好,谁就能从这场工业革命中获益最多。但我认为每一层都必须成功。

如果你把AI妖魔化成核弹,让每个人都恐惧它,这会削弱国家的竞争力。如果你恐吓大家说AI会取代所有工作,导致没人去学软件工程,那才是真正的损失。当你设定非黑即白的极端假设时,会以一种不切实际的方式吓跑大众。我们当然希望保持领先,并在每一层都成为领导者。但几年后,当我们希望向全球出口标准时,你会发现今天的狭隘政策会导致我们平白无故让出巨大的市场。我们不该主动放弃。这需要成熟的考量,而非极端的绝对化。世界不是由绝对值构成的。

提问:由于EUV出口管制,对手可能停留在7纳米,而英伟达正迈向1.6纳米。如果未来尖端产能真的彻底枯竭,英伟达是否会考虑利用7纳米等旧节点的产能?为什么英伟达不并行运行多个不同的架构项目,比如晶圆级芯片?如果深度学习革命没有发生,英伟达现在的定位会是什么?

黄仁勋:看事实,Blackwell的光刻技术并没有比Hopper领先50倍,摩尔定律已经放缓。在Hopper和Blackwell之间,晶体管层面的提升约为75%,但Blackwell的性能却是Hopper的50倍。这说明架构很重要,计算机科学很重要。AI的效能主要来自计算栈,这也是CUDA成功的原因。它提供了一个极其灵活的生态系统,无论是MoE还是扩散模型都能轻松实现。如果我们被迫离开某些市场,会加速对方芯片产业的发展。他们不会被困在7纳米,他们擅长制造,会继续突破。5纳米和7纳米之间没有10倍的差距。架构、网络、能源效率,这些都很关键。

(关于旧节点与新架构)没必要(退回旧节点)。每一代的提升远不止晶体管缩减,还包括封装、堆叠和系统架构。退回旧节点的研发成本极高,我们宁愿把资源投向未来。但如果未来尖端产能真的彻底枯竭,我肯定会考虑。我们可以做(其他架构),但目前还没发现更好的方案。我们在仿真器里模拟过,结果证明现有的路径最优。如果工作负载发生剧变,我们可能会增加其他加速器。比如我们将Groq整合进CUDA生态,是因为Token的价值大幅提升,市场出现了对极速响应的细分需求。未来会出现高单价的Token市场,即便吞吐量低一些,溢价也能覆盖成本。

(关于英伟达的核心使命)即便没有AI,英伟达依然会非常庞大,因为通用计算的扩展能力已基本到头。加速计算是我们始终坚持的方向,我们认为通用计算在处理大规模特定计算时效率不足。我们将GPU架构、CUDA与CPU结合,将应用速度提升百倍。

如果没有AI,我会很遗憾。但我们让深度学习民主化了,让任何学生只需一张显卡就能进行前沿科学研究。这个初心从未改变。在GTC上,计算光刻、量子化学等非AI工作同样重要。我们致力于帮助每一个人。不客气,聊得很开心。


黄仁勋的这番对话,清晰地勾勒出英伟达在当下AI浪潮中的战略思考与行业判断。其关于中国芯片供应链与能源优势的分析,跳出了单纯的技术参数对比,指向了更底层的产业逻辑与地缘政治经济现实。对于关注全球AI竞争格局半导体产业发展的从业者而言,其中的诸多观点值得深入探讨。这场对话也再次证明,在人工智能驱动的时代,技术路线、生态构建与全球市场的博弈,远比我们想象的更为复杂。欢迎在云栈社区分享你的见解。




上一篇:开源AI编程代理框架claw-code:基于Python+Rust架构,如何自动化你的编程任务
下一篇:深度解析:如何用Milvus混合检索升级Hermes Agent的记忆与Skill生成能力
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-18 22:40 , Processed in 0.608753 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表