一场价值万亿的“站台秀”
三月的GTC开发者大会,黄仁勋穿着那件标志性的黑色皮夹克,向世界举起了一块芯片。
这块芯片名为Rubin GPU,是英伟达(Nvidia)全新“七芯片”计算平台的核心。而站在黄仁勋身后点头附和的,是Anthropic的CEO Dario Amodei、OpenAI的CEO Sam Altman,还有来自Meta和Mistral AI的高层代表。
这场发布会的阵仗堪称豪华:七款芯片同时进入量产阶段,八十多家生态合作伙伴排队站台,全球四大云服务商——AWS、Google Cloud、Microsoft Azure和Oracle——集体承诺将这一平台上线自己的服务。
说实话,英伟达的大场面我们见过不少,但每次他们似乎都能把标准再拉高一个层次。这一次,他们称之为“代际飞跃”。黄仁勋的原话更是毫不谦虚:“Vera Rubin将开启历史上最大规模的基础设施建设。”
请注意,他没有说“最大规模之一”,他说的是“最大”。
黄仁勋的“七龙珠”,终于凑齐了
那么,构成这“七龙珠”的究竟是哪七张牌?我们来逐一拆解:
- Rubin GPU 无疑是主角。据称,只需72张卡就能塞满一个机架,而要训练大模型达到同等性能,所需GPU数量仅为上一代Blackwell平台的四分之一。
- Vera CPU 看似配角,但英伟达将其定义为“第一款专为代理型AI(Agentic AI)设计的CPU”。一个机架可容纳256颗液冷处理器,能够同时运行多达22500个独立的AI“沙盒”环境。
- Groq 3 LPU 专攻低延迟推理。256颗芯片携带着128GB的SRAM,目标是解决万亿参数大模型在响应时可能出现的“反应慢”问题。
- BlueField-4 DPU 负责提供“上下文记忆”能力,简单理解就是帮助AI在执行长序列任务时,能记住前面步骤发生了什么。
- NVLink 6、ConnectX-9、Spectrum-6 这三者构成了高速互联网络,采用共封装光学技术,宣称效率是传统方案的5倍。
这七块技术拼图,最终组合成了一台面向未来的“超级计算机”。
英伟达给出的性能指标相当诱人:与Blackwell平台相比,能效提升高达10倍,处理每个token的成本更是降到了十分之一。
这个数字漂亮得令人惊叹,也让人不禁想问:有独立的第三方验证数据吗?目前,答案是没有。英伟达表示,相关数据后续会公布。
“代理型AI”:是未来蓝图,还是新画的饼?
整场发布会反复强调的一个核心概念,就是“代理型AI”。这究竟意味着什么?
简单来说,传统的对话式AI是“你问我答”的模式,而代理型AI则是“你给定一个目标,AI自己规划步骤、调用工具、执行任务并迭代优化”。这个过程可能持续几小时甚至数天,比如让AI自主编写、测试并优化一段复杂的程序。
黄仁勋甚至断言:“聊天机器人的时代结束了。”
这句话,我信一半。
诚然,单纯对话交互的AI,其商业想象空间似乎正在触顶。但“代理型AI”能否真的成为下一代主流的计算负载?目前这更多还是一个充满潜力的假设,而非既成事实。真正大规模跑在生产环境中的代理型应用屈指可数,多数仍停留在演示阶段。
但英伟达显然已经等不及了。他们配套发布了 “Agent Toolkit” ,其中包括一个名为OpenShell的开源运行时,旨在为这些自主运行的AI“套上缰绳”——毕竟,让AI不受控制地自由行动存在显而易见的风险。
Adobe、Atlassian、Salesforce、SAP、ServiceNow……一连串企业软件巨头的名字出现在合作名单上。这份名单长得让人产生一种错觉:代理型AI的浪潮,是不是已经扑面而来了?
真正的赢家会是谁?
有意思的不仅是硬件本身。
英伟达还牵头组建了一个名为“Nemotron联盟”的团体,成员包括Mistral AI、Perplexity,以及由前OpenAI技术高管Mira Murati创立的Thinking Machines Lab。这些研究机构将基于英伟达的DGX Cloud云服务,共同训练开源大模型。
一方面,繁荣的开源生态有助于英伟达绑定更广泛的开发者群体;另一方面,英伟达自己也亲自下场,推出了Nemotron 3系列模型,涵盖Ultra、Omni、VoiceChat等多个版本,甚至还包括专为机器人设计的GR00T N2模型。
这就让局面变得有些微妙了。
OpenAI、Anthropic这些公司是英伟达芯片的重要客户,但现在“卖水人”自己也开始“淘金”了。英伟达正在从纯粹的“卖铲子”角色,逐渐转变为“既卖铲子,也自己挖矿”的综合性玩家。
客户们会怎么想?至少在公开场合,Sam Altman表示“我们会用Vera Rubin来运行更强大的模型”,Dario Amodei也说“这个平台让我们能够继续交付安全可靠的AI系统”。
但在商业世界的台面之下,这种“合作伙伴兼潜在竞争对手”的复杂关系,从来都是暗流涌动。

从制药到太空:一场全方位的“跨界秀”
这场发布会的覆盖范围之广,几乎让人应接不暇:
- 制药巨头罗氏(Roche) 宣布部署超过3500块Blackwell GPU,号称是“制药行业最大规模的GPU部署”。他们利用AI设计肿瘤药物,其中一个候选分子的发现速度比传统方法快了25%,另一个备用分子仅用了7个月就完成,而行业平均周期是两年以上。
- 自动驾驶领域,比亚迪、吉利、五十铃、日产等车企都在基于英伟达的Drive Hyperion平台开发L4级自动驾驶汽车。英伟达与Uber合作,计划在2028年之前,将无人驾驶服务扩展到全球28个城市。
- 医疗机器人方面,英伟达推出了专门的物理AI平台,并配套了一个包含700小时外科手术视频的数据集。强生、美敦力、CMR Surgical等公司均已开始采用。
- 最令人惊讶的或许是太空领域。“Vera Rubin太空模块”号称将太空中的AI计算能力提升了25倍。Aetherflux、Axiom Space、Kepler等公司正在基于该模块开发用于卫星的星上推理能力。
黄仁勋说:“太空计算,这最后的疆域,已经到来。” 如果这话从别人口中说出,或许会引来怀疑。但从掌控着全球绝大多数AI算力流向的英伟达CEO嘴里说出来,其分量确实不同。
“完美风暴”背后的隐忧
平心而论,这场发布会在规模和叙事连贯性上,几乎无可挑剔。
从最底层的芯片、系统、网络、存储,到上层的开源模型、代理框架,再到垂直的企业应用乃至太空计算,英伟达展示了一个完整且高度垂直整合的技术堆栈。
放眼整个半导体行业,确实没有第二家公司能交出这样一份答卷。谷歌的TPU性能强悍,但软件生态广度不及CUDA;AMD的GPU正在奋力追赶,但软件栈成熟度仍有差距;AWS的Trainium芯片刚刚起步,更不用说。
然而,“完整”并不等同于“无敌”。
AMD的MI300X正在积极争夺市场份额;谷歌的TPU在其内部已经无数次证明了其在特定训练任务上的高效;亚马逊的Trainium在AWS云服务内部的使用率也在稳步提升。
更重要的是,英伟达这种“全栈通吃”的野心,很可能让部分客户心生警惕——当你既提供硬件,又开发软件和模型,还定义最佳实践架构时,那些深度依赖你的公司难免会感到焦虑。
此外,整场发布会大厦的基石——“代理型AI将主导未来计算”——目前仍然是一个有待验证的赌注,而非公认的事实。如果这个核心假设未能如期实现,那么Vera Rubin平台的整个设计逻辑都需要被重新审视。
盛宴之下,暗流从未停止涌动
每年的GTC似乎都有一个保留环节:黄仁勋手持最新芯片,如同珠宝商展示钻石一般,在聚光灯下缓缓转动。
这既是一场精心策划的技术表演,也是一次面向未来的行业布道。
但今年的不同之处在于,英伟达不再仅仅满足于扮演“卖铲人”的角色。它正试图更进一步,定义“矿藏”在哪里,甚至指导“矿工”该如何开采。
七款芯片、八十多家伙伴、四位行业领袖站台——这无疑是一场豪赌。赌的是代理型AI时代真的会加速到来,赌的是整个行业仍会心甘情愿为更快、更昂贵的硬件买单,赌的是合作伙伴不会因为忌惮而转身拥抱AMD或谷歌的替代方案。
黄仁勋说,这是“历史上最大规模的基础设施建设”。
这是否是“最大”,或许有待时间检验。
但有一件事几乎可以确定:这场建设盛宴的价码,至少在现阶段,将由英伟达来书写。
技术的每一次跃进都伴随着激烈的讨论与思考,关于算力、生态与商业的博弈,欢迎在云栈社区的相关板块与更多开发者一同探讨。
参考链接:
https://venturebeat.com/infrastructure/nvidia-introduces-vera-rubin-a-seven-chip-ai-platform-with-openai-anthropic