找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3239

积分

0

好友

431

主题
发表于 5 小时前 | 查看: 4| 回复: 0

Dwarkesh 上周放出的黄仁勋访谈,市场上分析的版本很多。大部分文章都在重复老黄说了什么——TPU 不可怕、中国该卖、$1T 规模有供应链支撑。

我读完的感受有些不同。这次访谈信息量最大的不是内容,是老黄选择反复强调的事。

一个卖家反复说“你不该担心这件事”,通常意味着市场正在担心它。他不是在告诉你真相,是在管理你的预期。把他的三句话倒过来读,你会看到完全不同的一个故事。

第一句:TPU 不是威胁

老黄的原话大概是:“Matrix multiplies are an important part of AI, but they're not the only part.”

市面上大部分解读停在字面:“老黄说矩阵运算不是全部,所以 TPU 专门做矩阵运算的设计不够通用,GPU 仍然领先。”

这个解读把事情讲反了。

这句话的隐含承认是:TPU 在 matrix multiply 这条主线上已经达到足够好。不然老黄不会用“不是全部”这种措辞。如果 TPU 在矩阵运算上还不如 GPU,他的话会是“TPU 的矩阵运算也不够好”。用“not the only part”防御,说明矩阵这条线已经守不住。

他只能换战场。他把讨论从“单操作性能”拉到“算法创新空间”,声称 GPU 的可编程性支持未来的 attention 变体、SSM、diffusion 等新架构,而 TPU 的固定张量处理器吃亏。

这个论点在技术上对,在商业上可疑。

技术上:没错,GPU 可编程性天然支持研究创新。Transformer 就是在 GPU 上长出来的。下一代架构大概率也会先在 GPU 上跑通。这个优势真实存在。

商业上:创新空间不等于商业空间。90% 的 AI 推理市场跑的是已经稳定的架构(transformer decoder-only),这部分工作量 TPU 能做得又便宜又快。老黄的价值是“未来架构的启动平台”,TPU 的价值是“当前架构的部署平台”。两者的商业模式不冲突,但钱是分开的。

而“当前架构部署”这部分市场,是明确的大头。

绅士用放大镜检查GPU芯片,象征对高性能计算硬件的审查

第二句:我们应该卖芯片给中国

老黄花了访谈里非常多时间在这个话题上。金句:“Why would you want the United States to give up the world?” 听起来很有格局感。

把他的逻辑拆开看,其实是三层:

  1. 中国已经自给:7nm 制造能力、丰富的能源、全球 50% 的 AI 研究人员、华为创纪录的一年。DeepSeek V4 已发布,证明了一线模型完全可以基于华为芯片训练。禁售不会阻止中国,只会把中国推向自主生态。
  2. 美国失去第二大市场:禁售让美国企业放弃了一块巨大的蛋糕,长期看是自残。
  3. 开发者站队问题:中国开发者如果被逼在中国栈上跑,他们的技术习惯就会反过来影响全球。

这三条每一条单独看都有道理。但放在一起读,你会发现这是一家公司 Q4 财报会议的口径,不是一个国家战略论述

老黄的真实担忧是什么?NVIDIA 从中国市场的收入正在流失,而且流失速度可能比公开披露的快。H20 芯片销售、中国大厂转向国产和 TPU 方案、中国 AI 研究成果不再依赖 CUDA 生态——这些信号过去 6 个月全在发生。

“战略论述”包装的是“商业焦虑”。老黄不是不知道芯片是敏感战略物资。他在做的事情是把自己的商业利益和“国家利益”叙事绑定,用这个绑定去影响政策讨论。

这是合法的、可理解的游说行为。但作为读者,我们要分清“这是利益相关方的论述”和“这是客观判断”。老黄的判断大概率不客观,因为他没法客观——他的股价取决于这个市场回来。

第三句:我们锁了 $250B 供应链,撑得起万亿规模

最耐人寻味的一句。老黄说 NVIDIA 已经跟上游(台积电、ASML、存储厂、封装厂)签下了 $2500 亿的承诺,“如果未来几年是万亿美元规模,我们的供应链能接住。”

这句话可以读出两个完全不同的意思。

正面读:NVIDIA 有规模、有资金、有议价权,上游愿意围着它转。这是护城河的终极版本——资本密集 + 生态锁定。

反面读它不得不压 $2500 亿赌注

如果需求真的长期确定增长,你不需要一次锁 $2500 亿。你按季度滚动,风险更低、资本效率更高。一次锁住是因为你担心中途有人抢

抢的是谁?AMD(MI400 系列正在抢份额)、博通(与 Google/Meta 合作做定制 ASIC)、TPU v7/v8、Anthropic 自研或迁移、中国系(华为昇腾)的平替。老黄的 $250B 是一个“把上游锁死不让对手用”的防御性投资

他后面那句“真正的瓶颈不是硅,是水电工和电工”也很值得玩味。这句话是在说:“我控不住我的供应链下游(数据中心、电网、冷却基础设施)”。当瓶颈从你能控制的东西(晶圆产能)转到你控不住的东西(电力、人力、土建)时,你的定价权就在下降。

$250B 是一个高峰的信号,不是底部。

我看到的账本

切到我这边的视角。做企业 AI 产品,我每月都要看算力账单。过去 18 个月,几个明确的趋势:

一、H100 / H200 的现货价格在回落。2024 年顶峰时候租一张 H100,$4.5/小时起。现在$2.5-$3 能拿到相当充足的配额。NVIDIA 的毛利还在,但租赁端的利差在缩。这对 NVIDIA 的$250B 赌注不利——上游签的是今天的价格。

二、Google TPU v7 的每美元性能(perf/$)对 H200 已经是正向。对大部分 transformer 推理任务,TPU 便宜 20-30%。Anthropic 全面迁训、Google Cloud 很多 AI startup 优先选 TPU,都是这个原因。老黄把 Anthropic 用 TPU 解释成“100% Anthropic 自己的决定”,这句话太轻了。Anthropic 不是一家 300 人的初创,他们是世界上最懂怎么训大模型的团队之一。他们选 TPU 不是爱好,是账算出来的。

三、AMD MI400 的软件栈追上了。ROCm 过去几年是笑话,现在在 PyTorch 主流训练场景基本能用。我们测过,对一些确定的推理工作负载,MI400 的 TCO 比 H200 低 15-20%。份额还小,但天花板被打开了。

这三件事合起来,你看不到老黄那个乐观的叙事。你看到的是一个老霸主进入“多供应商时代”,价格权在慢慢移交。

“单一垄断 → 双寡头 + 长尾”

2022-2024 年的 AI 基础设施市场是 NVIDIA 的独奏。2026 年开始,这个市场进入一个新的结构:

  • NVIDIA:高端训练、前沿研究、新架构启动平台。仍然是领头。
  • Google TPU:大规模推理、稳定 transformer 工作负载。蚕食推理市场。
  • AMD:性价比训练和推理,HPC 场景的延伸。
  • 定制 ASIC(博通、Marvell、以及超大规模客户自研):特定工作负载的成本优化。
  • 国产阵营(华为昇腾、寒武纪等):中国本土市场的平替。

这不是 NVIDIA 完蛋的故事。它依然会是最大的玩家。但“没有其他选择”这个状态结束了。

对 NVIDIA 意味着什么?毛利率会从 70%+ 向 50-60% 收敛。绝对收入可能还在涨,但定价权这块护城河在变薄。对它的估值叙事有直接影响。

真正的新瓶颈:电和散热

老黄访谈里说“水电工和电工”那句是对的,但他没有充分展开。

AI 算力的下一个制约已经不是芯片产能。是电力接入和数据中心散热

一家大厂要上 10 万卡规模的新训练集群,从选址到通电,今天在美国要 24-36 个月。在中国情况类似(限制不同,但总时长差不多)。这个时间里,芯片可以迭代 1-2 代。你 $10 亿美金的芯片订单,可能在电通上之前已经过时了。

这对行业格局的影响:拥有大规模低成本电力的地方会抢走部分算力重心。内华达、得州、北欧、中东的沙漠电站、中国的西部大数据基地,都在下这盘棋。

对初创意味着什么?不要再想着“我买最新 GPU 就能有领先”。大厂的上游锁定优势今天体现在“他们的电早就排好队了”。初创能拿到的是尾部产能 + 租赁。这不是坏事,只是意味着你的产品差异不能依赖硬件。

我给我的团队立的规矩是:我们的产品必须在 GPU、TPU、AMD 三个平台上都跑得通。牺牲一点单平台优化收益,换抗供应链风险的能力。过去 18 个月这条规矩至少救了我们两次。

回到老黄

老黄是商业史上最强的销售之一,没有之一。他的公开言论要当市场沟通文本读,不是客观分析读。

这次访谈里他的三句防守话,实际上告诉了我们三个正在发生的变化:

  1. 多 GPU 替代品的市场份额正在起来。
  2. 中国市场对 NVIDIA 的长期价值贡献在掉。
  3. 上游锁定是 $250B 级别的防御性动作,不是纯攻势。

这不意味着 NVIDIA 要垮。作为一家公司,它依然是世界上最会做 AI 硬件的。但“不可替代”这个标签,正在从它身上慢慢剥落。


留一个问题:如果 AI 硬件这一层的毛利率开始收敛,那模型公司(OpenAI、Anthropic)的成本结构会怎么变?推理便宜 30% 意味着什么?会让 Claude 更便宜、还是让它们把钱更多投到数据中心自建?这个问题决定未来两年的行业格局。

参考资料

  • Dwarkesh Patel, Jensen Huang – TPU competition, why we should sell chips to China, & Nvidia's supply chain moat. Dwarkesh.com, 2026-04-15.



上一篇:GPT-Image2中文乱码彻底解决:6个文字渲染实用技巧
下一篇:DeepSeek V4 联手华为昇腾,国产算力终结CUDA依赖时代
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-27 22:16 , Processed in 0.827189 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表