
近日有消息称,OpenAI将一笔超过100亿美元的芯片订单,给到了晶圆级芯片公司Cerebras。这份协议对应最高约750兆瓦的算力容量,计划在2026至2028年分阶段落地。
这一举动颇为引人注目。众所周知,OpenAI的核心训练体系长期建立在英伟达GPU之上。然而近期,这家头部模型公司似乎正努力将算力“鸡蛋”放进多个篮子里。早在去年6月,就有媒体披露OpenAI计划通过Google Cloud租用谷歌自研的TPU芯片,为ChatGPT等产品提供部分推理算力。
这一算力供应策略的变化,折射出美国AI产业两大阵营的角力:一边是以英伟达为核心的GPU生态,另一边是近年来迅速崛起的、以谷歌TPU为核心的阵营。
在大模型爆发初期,英伟达几乎是算力的唯一中心。从训练到推理,从芯片到CUDA软件生态,行业几乎没有其他选择。但在过去两年,这种“绝对核心”的地位开始松动。一方面,GPU供给长期紧张、价格高企;另一方面,超大模型推理负载激增,催生了对专用加速器与替代架构的现实需求。
正是在此背景下,谷歌的TPU路线逐渐成型。通过将TPU与Gemini大模型、VertexAI云服务的节奏深度绑定,谷歌逐步搭建起一套“从芯片到模型再到云服务”的一体化供给体系。
而Cerebras,则成为OpenAI在两大阵营之外插入的一枚新筹码。它主打晶圆级芯片的技术路线,在低延迟推理与特定负载吞吐上具备优势。
在英伟达和谷歌划定的“楚河汉界”之间,头部AI企业们正在“站队”与“合作”中不断寻找平衡。
两大基座阵营,既要“合纵”也要“连横”
尽管AI算力版图出现了分化的迹象,但英伟达仍是市场的绝对主力。根据IDC 2025年第二季度的统计,英伟达在AI算力厂商中的份额占比仍高达约85.2%。
不过,在AI产业中,“盟友”与“对手”的界限往往模糊不清。我们可以从头部企业的选择中,窥见一丝生态上的偏好。
英伟达的主力合作伙伴中,微软和AWS持续将其最新GPU作为云端算力的主力。以微软为例,根据Omdia的估算,2024年微软采购了约48.5万块英伟达Hopper系列GPU,采购量近乎其竞争对手的两倍,显示出其在AI基础设施领域与英伟达的紧密捆绑。2025年11月,微软还与数据中心运营商IREN签署了一份价值约97亿美元的合同,其中包含价值约58亿美元的英伟达GB300芯片及相关设备,旨在进一步扩展Azure的AI计算能力。

不止云厂商,众多大模型企业也是英伟达的基本盘。马斯克曾表示,xAI的Colossus超算在2025年已部署约20万块英伟达GPU,用于训练Grok系列模型,并计划进一步扩容。
然而,尽管英伟达的GPU体系占据了八成以上的市场份额,但其高昂的成本与软件生态的锁定效应,也让部分头部用户开始积极寻求新的供应链渠道。
另一边,谷歌TPU因其在某些推理与训练场景上拥有更低的成本,并与云服务深度整合,市场对它的兴趣与日俱增。几周前,有媒体披露Meta正在评估在2027年后引入谷歌自研芯片的可能性,合作规模或达数十亿美元。这使TPU有望成为英伟达之外的一个重要替代选项。
类似的选择也出现在Anthropic身上。去年10月,Anthropic宣布将大幅扩大与Google Cloud的合作,计划利用多达一百万颗TPU芯片、总价值数十亿美元的算力资源,来训练和服务下一代Claude模型。Google Cloud CEO托马斯·库里安对此评价道:“Anthropic大幅扩大使用TPU,反映了团队多年来在使用TPU时观察到的强劲价格性能比和效率。”
当然,Anthropic与谷歌的合作离不开资本层面的紧密联系。谷歌是其早期投资者,也是最重要的云算力提供方之一,已累计向Anthropic投资超过30亿美元。Anthropic CFO Krishna Rao曾表示,这次扩展有助于获取“持续增长定义前沿AI所需的算力”。
通过加大对TPU的使用,Anthropic在成本与算力供给上获得了更高的确定性,同时也加深了与谷歌在云基础设施层面的长期合作关系。然而,即使是在资本合作伙伴之间,产品与业务层面的竞争也依然存在。如果Anthropic利用谷歌的TPU训练出了远超Gemini的模型,那么谷歌在应用层的竞争将变得更加困难。
正是在这种现实下,“合纵连横”成为AI基础设施格局中的关键逻辑。在算力层面,面对英伟达的长期主导,谷歌以TPU、云服务和资本关系构建起稳定的合作网络,模型公司借此获得更可控的算力与成本,此谓“合纵”。但这种联盟并不会延伸到产品前台。进入模型与应用层,竞争重新变为零和博弈,各家在产品上正面厮杀,“连横”随之出现——即在基础设施上交错合作,但在产品上各自为战。
英伟达与谷歌两大阵营的并存,恰恰放大了这种“合纵连横”的复杂结构。
GPU与TPU之争,源自“前AI时代”
这场围绕算力基座的竞争,其根源可以追溯到生成式AI爆发之前的十年。
早在2006年,英伟达就发布了CUDA,使GPU首次成为可被通用编程调用的并行计算平台。随后,PyTorch、TensorFlow等主流深度学习框架相继围绕CUDA构建生态,GPU也从图形加速器演变为AI训练与推理的事实标准。
CUDA的价值远不止于“让GPU可编程”,更在于打造了独特的软件生态壁垒。 英特尔前CEO帕特·基辛格曾直言,英伟达真正的护城河在于“CUDA以及NVLink这样的软件和互连体系”。这一体系优势在2012年迎来爆发,当时研究人员利用英伟达GPU训练出的AlexNet模型在ImageNet挑战赛上一举夺魁,展示了GPU并行计算与大规模神经网络结合的巨大潜力。
然而,随着深度学习浪潮的兴起,大规模神经网络对算力效率和能耗提出了新要求。谷歌意识到,依赖通用GPU进行大规模推理和训练,存在成本高、功耗大的问题。于是,从2015年起,谷歌开始研发TPU——一种面向神经网络推理负载的定制化芯片,最初目标是为其搜索、翻译等核心业务提供高效能、低功耗的推理支持。
2018年,谷歌将TPU正式引入Google Cloud对外开放,试图证明其在云端的价值。测试数据显示,在TPU上训练ResNet-50等模型可显著缩短时间并降低成本。
但在随后的生成式AI爆发初期,英伟达凭借成熟的软件生态和稳定的供给,迅速成为最大赢家。A100等GPU成为各大厂商训练大模型的默认选择。
TPU命运的转折点,出现在算力需求持续爆炸性增长之后。 2023年起,随着大模型推理负载激增,电力与成本压力陡升,谷歌TPU在单位能耗和性价比上的优势开始受到行业重视。AI数据中心的惊人能耗,迫使企业寻求更高效的解决方案,TPU的能耗优势无疑是吸引用户的关键因素之一。
另一方面,为降低开发者的迁移门槛,谷歌近年来明显加大了TPU软件生态的投入。有外媒披露,谷歌正推进一个名为“TorchTPU”的内部项目,核心目标是提升TPU对PyTorch框架的原生支持能力,以缩小其与英伟达GPU在主流开发环境中的使用差距。
宏观层面上,以谷歌为代表的TPU生态的发展,也在一定程度上对冲了市场对英伟达单一主导地位的担忧。美国参议员伊丽莎白·沃伦曾呼吁对英伟达进行反垄断调查,她认为“让一家企业成为全球AI未来的守门人是危险的”。对于OpenAI这样的头部公司而言,一个“合纵连横”的多元化算力格局,无疑比依赖单一技术路线更具战略弹性。
OpenAI的“摇摆”和“押注”
在大模型发展的关键时期,OpenAI与英伟达的算力体系深度捆绑。公开信息显示,训练GPT-3时,OpenAI动用了近3万块英伟达GPU。这种紧密关系持续至今,去年底,双方宣布新一轮合作,OpenAI计划部署至少10吉瓦的英伟达算力系统,包含数百万块GPU。
然而,在这种紧密捆绑的背后,OpenAI探索“去中心化”算力供应的举措也日益清晰。 尤其是随着模型规模与推理负载急剧上升,开辟新的算力供给路径迫在眉睫。
去年6月,OpenAI被曝开始通过Google Cloud租用TPU,为产品提供部分推理算力,以期降低成本。这是OpenAI首次计划批量使用非英伟达芯片。 尽管公司发言人随后回应称“仅处于早期测试阶段”,但这仍难掩盖其寻求供应链平衡的意图。行业分析师指出,这反映出AI提供商正尝试在英伟达GPU之外,寻找更具成本效益的专用方案。
几个月后,OpenAI在10月宣布与AMD签署协议,将在未来几年部署最高6吉瓦的AMD GPU资源。时间来到2026年初,Cerebras也被纳入了OpenAI的算力版图。根据报道,双方签署了总额超100亿美元的多年度协议。
OpenAI高管Sachin Katti在相关公告中阐释了其算力策略:构建一个“有韧性、抗风险的算力组合”,根据不同负载匹配不同系统;Cerebras将在其中以其“低时延推理”能力发挥补位作用。

Cerebras走的是截然不同的技术路线:其“晶圆级芯片”面积是英伟达主流数据中心GPU的数十倍,集成了约4万亿晶体管和90万个核心,旨在减少传统GPU集群中常见的跨卡通信瓶颈。值得注意的是,OpenAI CEO萨姆·奥特曼此前曾以个人身份投资过Cerebras。
另一方面,OpenAI的布局并未止步于引入外部替代方案。去年以来,多家外媒披露OpenAI已在内部组建芯片团队,并与博通合作推进自研AI加速器芯片,目标是围绕自身模型优化推理效率。奥特曼表示,自研芯片可以将“在最前沿模型和产品设计中学到的经验直接嵌入硬件”。
而在谷歌TPU和其他供应商之间的摇摆,也在一定程度上映射出OpenAI对于谷歌这位强大竞争对手的警惕。 近期,苹果宣布与谷歌达成多年合作,将使用Gemini模型升级其AI功能。这一合作无疑会强化谷歌在与OpenAI竞赛中的地位。
长远来看,美国AI算力产业的格局并非简单的阵营割裂。在基础设施层,英伟达与谷歌构筑了两套稳定运转的算力基座。但对模型公司而言,算力是必须“合纵”的底座,而产品与模型竞争才是真正的战场。越是头部玩家,越需要在底层结盟、在上层博弈。
作为模型侧的领头羊,OpenAI的多路径布局正是这一现状的缩影:既要依托英伟达的强大生态,也要避免单点依赖;同时布局自研算力,为未来的竞争预留空间。
2026年,在美国AI产业的“楚河汉界”之间,“合纵连横”的复杂戏码仍将继续上演。 开发者与从业者若想持续追踪人工智能与云计算领域的最新动态与深度分析,可以关注相关技术社区的讨论。