
英伟达坚守封闭生态,而博通则走向开放的CPO路线,这已成为半导体行业的一个关键看点。共封装光学(CPO)作为下一代交换机的核心架构,正受到业界高度关注。向CPO的转型,不仅是数据中心网络技术的一次关键迭代,更在重塑半导体厂商的竞争格局,成为AI时代算力网络升级的核心抓手。随着全球智能体AI、大模型训练与推理等算力密集型应用爆发,数据中心内部及跨数据中心的通信流量呈指数级增长,传统网络架构已难以支撑,CPO技术的产业化进程正加速推进。
过去十年,交换机带宽随超大规模云计算与分布式负载同步提升,而人工智能正急剧加速这一趋势。据行业测算,AI大模型训练过程中的数据交互量较传统计算场景增长超百倍,这一增长此前主要依赖高速可插拔光模块。但在现有QSFP、OSFP形态下继续扩容正变得愈发困难,接口密度、面板带宽已接近物理极限,尤其是功耗问题更为突出——单端口112G光模块功耗约4-5W,而若升级至224G速率,传统可插拔方案功耗将突破10W,大规模部署将导致数据中心散热压力剧增。
展望1.6T及更高速光模块,交换机I/O必须从112G级电信号SerDes升级到224G级。在这种速率下,跨越封装、PCB走线和连接器的电学信道损耗极大,信号衰减幅度较112G时代增加30%以上,均衡难度陡增,导致SerDes功耗大幅上升。此外,高速电信号传输还会产生严重的电磁干扰,进一步制约信号完整性与传输距离,传统架构已无法满足下一代数据中心对带宽、功耗、延迟的协同要求。
共封装光学通过将光引擎与交换ASIC放在同一封装内,大幅缩短交换芯片与光模块之间的电学路径,通常可将传统方案中数十厘米的传输距离缩短至毫米级,从而从根本上解决了这一局限。它不仅降低了均衡算法的复杂度与硬件开销,更使信号完整性提升40%以上,同时缓解了前面板密度与散热压力——相同带宽下,CPO方案的功耗较传统可插拔光模块降低30%-50%。因此,CPO作为下一代交换架构备受瞩目,成为全球科技巨头竞逐的核心赛道。
英伟达 vs 博通
英伟达在AI基础设施中的地位源于高性能计算。公司是全球GPU龙头,凭借Blackwell、Hopper等系列产品占据AI训练与推理市场的主导地位,并通过将加速器、网络与机器学习、仿真软件平台深度整合,将优势延伸至AI基础设施全链条。其平台依赖软硬件深度协同,尤其是CUDA生态与NVLink互联技术,二者形成强大技术护城河,实现加速器系统内部高效互联,支撑起大模型训练所需的大规模并行计算能力。黄仁勋曾公开表示,智能体AI的拐点已经到来,算力需求呈指数级增长,而软硬件协同的一体化平台是应对这一需求的核心解决方案。
博通则占据着生态中另一个重要位置。公司是网络ASIC市场领导者,市占率长期保持在40%以上,为Meta、谷歌、亚马逊等超大规模云厂商提供定制ASIC,其Tomahawk、Jericho系列产品构成大型数据中心网络的交换骨干。博通凭借在高速SerDes、交换架构设计上的深厚积累,以及规模化供应链优势,成为云厂商构建弹性网络的核心合作伙伴,其产品以高可靠性、高端口密度和成本优势著称。
纵向扩展(Scale-up)网络
在纵向扩展领域,英伟达的领先地位依托于NVLink,该技术专为在系统内部紧密连接加速器而设计。NVLink是短距铜缆电学互联,单链路带宽可达1.6Tbps,提供高带宽、低延迟的GPU直连通信,并支持多GPU内存共享,使多GPU集群可实现统一内存寻址。结合CUDA生态,互联技术、GPU内存层级与软件栈深度协同优化,使多GPU可作为单一逻辑计算资源运行,大幅提升并行计算效率,这也是英伟达Grace Blackwell平台能成为当前推理市场王者的关键支撑。
博通则通过以太网扩展切入这一领域,挑战英伟达的主导地位。其最新推出的Tomahawk Ultra平台属于“纵向扩展以太网(SUE)”计划的核心产品,旨在将以太网拓展到传统由铜缆互联承担的加速器间通信场景。该平台采用台积电5nm工艺,博通公开数据显示,其一次可串联的芯片数量是NVLink Switch的四倍,能支持更大规模的节点互联,将以太网定位为芯片间互联的高效替代方案。这一战略既发挥了博通在以太网领域的技术积累,又满足了部分云厂商对开放架构的偏好,避免过度依赖单一供应商的封闭生态。
横向扩展(Scale-out)网络
在横向扩展基础设施中,英伟达采取“光子 + 双协议”的双线战略,推出面向集群互联的光网络产品,已发布Quantum-X光子InfiniBand交换机与Spectrum-X光子以太网交换机,均面向分布式AI集群。其中,Quantum-X依托InfiniBand协议的低延迟优势(端口到端口延迟低至0.5微秒),主攻高性能计算与大模型训练场景;Spectrum-X则兼容以太网生态,通过与NVIDIA SuperNIC配合,实现无损传输与低延迟优化,覆盖更广泛的分布式推理集群需求,二者形成互补,巩固英伟达在AI集群网络的领先地位。
博通的核心仍聚焦以太网交换,延续其“全场景覆盖”的产品策略。其Tomahawk 6平台支持每端口1.6Tbps速率,单芯片可提供高达51.2Tbps的交换容量,专为大型分布式集群的叶脊架构设计,满足高密度接入需求;Jericho 4平台则定位更高层级的骨干交换与长距传输,数据处理能力约为前一代产品的四倍,作为以太网架构路由器/交换机,专为分布式AI基础设施设计,支持超过100公里的跨机房无损RoCE传输,完美适配跨区域集群互联场景。
跨域互联(Scale-across)
除单个集群外,两家公司均将目光投向跨数据中心互联场景,以支撑超大规模分布式AI部署。英伟达Spectrum-XGS在Spectrum-X以太网套件基础上,整合交换芯片、SuperNIC与光子前端,通过优化的光路设计与协议栈,支持跨地域大型AI集群协同计算。英伟达表示,基于NCCL(英伟达集合通信库)的跨数据中心通信方案,可使分布式训练的效率损失控制在10%以内,性能显著优于传统方案,为全球分布式AI算力网络提供技术支撑。
博通同样将Jericho4定位为可跨数据中心部署的架构方案,凭借其强大的长距离传输能力与路由转发性能,支持基于以太网架构的远距离分布式AI部署。与英伟达不同,博通的方案更强调兼容性与开放性,可无缝对接现有以太网生态,无需对客户现有网络架构进行大规模改造,降低了超大规模云厂商的迁移成本,这一优势使其在大型云服务提供商中拥有广泛市场基础。
共封装光学集成与封装
两家公司均采用台积电的半导体封装方案实现共封装光学,核心依托COUPE(紧凑型通用光引擎)平台与SoIC-X 3D封装技术集成光引擎,但在细节优化上各有侧重。COUPE平台通过专用电学接口实现电子集成电路(EIC)与光子集成电路(PIC)的协同集成,最小化耦合损耗;同时支持光栅耦合器与边缘耦合器两种光纤接入方式,插入损耗低至0.5dB以下,光耦合性能优于传统分立光引擎方案。而台积电SoIC-X采用的Cu-Cu混合键合技术,通过金属直接键合消除微凸点间隙,实现10μm以下互连间距,带宽密度可达1TB/s/mm²,较传统微凸点提升10倍,在实现高互联密度的同时,保证系统高效功耗控制。
英伟达的封装方案更注重与自身芯片的协同优化,将CPO封装与GPU、SuperNIC的封装设计统筹考虑,实现整个系统的功耗与延迟平衡;博通则更强调封装方案的通用性与规模化生产能力,其CPO模块可适配不同客户的交换芯片需求,凭借供应链优势降低生产成本,提升市场竞争力。
产品战略定位
英伟达将光互联作为其整体系统架构的一部分,坚持“垂直整合”战略,面向客户提供网络、加速器与软件协同的统一平台。从GPU芯片、NVLink互联、CPO光模块到CUDA生态、NCCL通信库,英伟达实现了全栈优化,目标是平台级整合与系统级效率最大化,这种模式能为客户提供“开箱即用”的解决方案,降低部署复杂度,但也要求客户深度绑定其生态。最新发布的Rubin平台更是将这一战略推向极致,推理Token成本较Blackwell平台最高降低10倍,进一步巩固其生态壁垒。
而博通采取以模块化与供应链规模为核心的解决方案型战略。公司不追求全面垂直整合,而是聚焦于网络核心硬件的研发与生产,向超大规模云厂商提供完整模块化平台,由客户根据自身需求将其整合进自有系统架构中。博通的优势在于产品的兼容性、可靠性与成本控制能力,通过规模化生产降低单位成本,同时保持对开放生态的支持,满足云厂商对供应链多元化与架构自主可控的需求。
综上可见,共封装光学不只是器件级的技术变革,更是不同企业产品战略差异的集中体现。英伟达凭借垂直整合的生态优势,构建起“算力 + 网络 + 软件”的一体化解决方案,主导高端AI基础设施市场;博通则依托在以太网领域的技术积累与开放生态策略,占据大规模数据中心网络的主流市场。二者的竞争与博弈,将共同推动共封装光学技术的成熟与产业化落地,为下一代数据中心网络架构注入新的活力。对于关注此领域发展的技术人员,在专业论坛如云栈社区进行深度交流,将有助于紧跟技术前沿动态。