要说2025年AI硬件圈最炸裂的故事,绝对不是某个新模型发布,也不是某家大厂财报亮眼,而是博通(Broadcom)突然从“网络芯片老牌厂商”的标签里暴起,一把撕掉“传统硅供应商”的面具,直接扛起AI网络大旗,对着英伟达(NVIDIA)喊出:“你的InfiniBand统治,到此为止!”
过去我们以为博通只是在交换机里默默提供底层芯片,但现在它已经构建了一整套完整、开放、标准兼容、还能打性能硬仗的AI以太网架构——从机架内互联、数据中心互联,到跨城市AI集群,全都覆盖。
更狠的是,它已经拿下全球90%的云数据中心交换芯片市场,AI半导体收入一年暴涨220%,达到122亿美元!而这一切背后,是一场关于“开放标准 vs 垂直垄断”的终极对决。今天我们就来扒一扒,博通到底怎么用以太网,一点一点把英伟达逼到墙角。
从“老派硅商”到AI网络霸主:博通的战略大翻身
很多人对博通的印象还停留在“买买买”的企业并购狂魔,或者那个收购VMware差点被否的巨头。
但没人想到,它在AI时代悄然完成了最危险也最聪明的转身——把整个网络业务,从边缘的“传统硅片供应商”,彻底重塑为AI基础设施的核心引擎。2024财年,博通AI半导体收入高达122亿美元,同比增长220%。管理层明确指出,这波增长几乎全靠AI加速器和以太网为核心的网络产品。
更震撼的是,独立分析显示,博通网络业务中超过80%的收入来自AI相关芯片,而它在整个AI半导体市场的占比也逼近40%。
这意味着什么?意味着英伟达之外,全球AI数据中心的“血管”里,流着的几乎全是博通的血。而它手握的王牌,就是全球90%的云数据中心交换芯片份额——换句话说,在超大规模数据中心里,只要是商用以太网交换机,几乎都绕不开博通。
三大战场全面出击:博通的AI网络三重奏
博通没有盲目硬刚,而是把AI网络需求拆解成三个清晰战场:scale‑up(机架内互联)、scale‑out(数据中心内互联)、scale‑across(跨数据中心互联)。
针对这三个维度,它分别祭出了三款“神级”交换芯片家族:Tomahawk(战斧)系列主攻scale‑out,Tomahawk Ultra专打scale‑up,Jericho(杰里科)系列则负责scale‑across。
这种分层架构,既精准匹配AI训练集群不同阶段的性能瓶颈,又形成产品矩阵合力:
Tomahawk 5/6已经是全球AI以太网交换机的事实标准,被Arista、思科、Celestica、Micas等几乎所有主流厂商采用;
Jericho3‑AI和即将发布的Jericho4则专为超大规模AI集群的路由和深度缓冲设计,能连接上万GPU而不丢包;
而Tomahawk Ultra更是直接对标英伟达的NVLink Switch,试图用标准以太网干翻专有互联协议。
这三路大军齐发,博通等于在英伟达的AI帝国周围,挖出了一条又深又宽的护城河。
Tomahawk 5/6:AI以太网的“心脏起搏器”
如果说AI集群是一头巨兽,那Tomahawk就是它的心脏。
Tomahawk 5基于台积电5纳米工艺,单芯片吞吐高达51.2 Tb/s,支持64个800G端口,功耗却控制在500瓦左右,完全兼容传统风冷机柜。
更关键的是它内置了“认知路由”(cognitive routing)技术——能实时感知全网拥塞,动态调整流量路径,专门对付AI训练中那种突发性微秒级流量洪峰(microburst)。
而下一代Tomahawk 6更是恐怖:台积电3纳米加持,容量翻倍到102.4 Tb/s,支持512个200G或1024个100G通道,足以构建连接13万台处理器的两层扁平化网络,彻底淘汰过去需要三层交换的复杂拓扑。
这意味着什么?意味着用博通芯片构建的AI以太网,不仅能跑得快,还能跑得稳、跑得省电、跑得简单。
目前全球绝大多数非英伟达系的AI以太网交换机,底层都是Tomahawk在驱动——博通已经成了开放AI网络的“默认选项”。
Jericho3‑AI/Jericho4:让AI集群跨越城市边界的“神经中枢”
当AI集群不再局限于单个机房,而是要横跨整栋楼、整个园区甚至多个城市时,普通的交换机就扛不住了。
这时候就需要Jericho上场。
Jericho3‑AI提供28.8 Tb/s容量,支持18×800G等灵活端口组合,专为连接32000块GPU设计。
它内置超大缓冲区和智能拥塞控制,确保在超大规模下依然零丢包。
而下一代Jericho4更进一步:引入HBM内存作为深度缓冲,支持长达100公里的链路;独创“HyperPorts”技术,能把多个800G物理链路聚合为单个逻辑端口,实现3.2 Tb/s的超高带宽;还集成了线速加密和安全启动,为AI集群提供端到端安全。
这些能力让Jericho成为驱动网(DriveNets)、瞻博(Juniper)等厂商构建分布式AI网络的核心。
相比之下,英伟达只能靠InfiniBand+第三方路由器拼凑方案,既昂贵又封闭。博通的Jericho,等于给了客户一个“开放、可扩展、跨地域”的AI集群蓝图。
Tomahawk Ultra:直插英伟达腹地的“以太网匕首”
如果说前面都是外围作战,那Tomahawk Ultra就是博通刺向英伟达心脏的一把匕首。
它专为机架内加速器互联设计,直接对标NVLink和NVSwitch。
英伟达的NVLink是专有协议,延迟极低但只能用于自家GPU,生态封闭。而Tomahawk Ultra用增强版以太网,实现了亚250纳秒的端到端延迟,并支持硬件级集合通信(如All‑Reduce),把部分计算负载从GPU卸载到网络层——这和英伟达的SHARP技术思路如出一辙。
最关键的是,博通声称Tomahawk Ultra能在同等物理空间内连接的加速器数量是NVLink Switch的4倍!这意味着谷歌TPU、AMD MI300、英特尔Gaudi等非NVIDIA加速器,终于有了一个高性能、开放、可扩展的机架内互联方案。
如果Ultra Ethernet和ESUN(以太网规模互联网络)标准成功普及,Tomahawk Ultra很可能成为异构AI芯片的“默认互联协议”,彻底动摇NVLink在封闭生态中的垄断地位。
Thor Ultra网卡:800G时代的AI网络“神经末梢”
光有交换机还不够,终端网卡同样关键。
博通的Thor家族AI网卡,就是AI集群的“神经末梢”。2025年推出的Thor Ultra是全球首款800G AI以太网网卡,支持PCIe Gen6 x16,完全兼容Ultra Ethernet Consortium 1.0标准。
它引入了包级多路径、乱序RDMA交付、选择性重传等黑科技,彻底解决传统RoCE协议在大规模多路径网络中的“队头阻塞”问题。同时集成线速加密、安全启动和可编程遥测,与Tomahawk 5/6交换机构成端到端AI以太网解决方案。
更妙的是,博通还提供Thor芯片模组(chiplets),让客户可以直接把网卡逻辑集成到自研AI芯片里——这等于把网络能力“下沉”到加速器内部,进一步提升效率。
相比之下,英伟达的ConnectX‑8虽然也支持800G,但深度绑定自家GPU和DOCA软件栈,开放性远不如Thor。对于想摆脱英伟达控制的超大规模客户,Thor是更自由的选择。
共封装光学(CPO):博通已量产,英伟达还在画饼?
光互联是AI网络的下一个战场,而博通在这条赛道已经遥遥领先。
它早在2022年就推出共封装光学(CPO)平台,如今“Humboldt”(洪堡)、“Bailly”(贝利)、“Davisson”(戴维森)三大CPO交换机已覆盖从Tomahawk 4到Tomahawk 6全系列。
其中Bailly平台将8个6.4 Tb/s硅光引擎直接与Tomahawk 5芯片共封装,省去可插拔光模块,功耗降低40%-70%。Micas Networks已开始商用51.2 Tb/s CPO交换机,证明博通技术已走出实验室。而英伟达虽然也公布了激进的CPO路线图——2026年要推409.6 Tb/s的Spectrum‑X Photonics交换机——但目前尚无量产产品。
技术分析指出,博通采用永久共封装,集成度高、功耗低;英伟达则倾向模块化光子组件,便于维护但复杂度高。
在800G时代,博通已凭CPO占据先机;但若行业快速迈向1.6T,英伟达的高带宽路线可能后来居上。这场光互联竞赛,胜负未定,但博通已抢得头筹。
开放 vs 封闭:两种AI网络哲学的终极对决
博通和英伟达的竞争,表面是产品对战,实则是两种哲学的碰撞。
博通是典型的“商户硅供应商”——只做芯片,不碰上层软件和系统,把控制权交给客户。这种模式契合超大规模客户的“反垄断”心理:他们不想被单一厂商锁定,希望自研网络操作系统、拥塞控制算法和AI通信库。
而英伟达走的是垂直整合路线:GPU、交换机、网卡、DPU、软件栈(CUDA/NCCL/DOCA)全自研,深度优化,开箱即用。在追求极致性能和快速部署的“AI工厂”里,英伟达方案确实更省心;但在需要长期演进、多厂商共存、成本敏感的场景,博通的开放生态更具吸引力。
未来3-5年,Ultra Ethernet和ESUN能否在性能上追平InfiniBand,将成为决定这场对决的关键。
投资者最该关心的两个风险点
对投资者而言,这场博弈有两大关键风险。
一是如果英伟达的集成方案在真实AI任务中展现出显著优于开放以太网的完成时间和部署效率,超大规模客户可能被迫接受“封闭但高效”的现实,转而全面采用Spectrum‑X和Quantum‑X,挤压博通份额。尤其当英伟达把网络产品和GPU捆绑销售时,商户硅的附着率可能下滑。
二是反过来,如果Ultra Ethernet标准在技术上取得突破,达到或接近InfiniBand性能,博通凭借其庞大的生态、成熟的CPO产品线和异构支持能力,将吃下AI网络绝大部分增量市场。尤其当客户大量采用谷歌TPU等非NVIDIA加速器时,博通几乎是唯一选择。
这场胜负,不仅关乎两家公司,更将决定未来AI基础设施的开放程度。
博通的终极野心:成为AI时代的“网络基石”
博通很清楚,它永远做不出CUDA那样的软件生态,也永远无法像英伟达那样深度绑定GPU。但它选择了一条更聪明的路:不做“全栈AI公司”,而做“AI网络的基石”。它不控制上层应用,但确保所有AI流量都流经它的芯片;它不定义AI框架,但为所有框架提供高性能网络管道。这种“管道思维”让它在超大规模客户中如鱼得水——这些客户恰恰最怕被软件生态绑架。而随着AI集群规模越来越大、异构计算越来越普遍,对开放、标准、可扩展网络的需求只会更强。博通押注的,正是这个不可逆的趋势。
接下来3-5年,Ultra Ethernet Consortium和ESUN的进展将决定AI网络的格局。如果这些开放标准能在延迟、吞吐、拥塞控制等关键指标上真正逼近InfiniBand,博通的Tomahawk/Jericho/Thor组合拳将势不可挡。而英伟达即便有更强的光子集成和DPU能力,也难以阻止客户在非GPU场景选择开放方案。反之,若开放生态始终无法解决大规模RDMA的稳定性问题,英伟达的垂直整合优势将继续扩大。目前来看,博通已占据先手,但英伟达的软件护城河依然深厚。这场战争,远未结束。
这场战争其实是以谷歌自研芯片为代表和OpenAI+微软依赖英伟达的轻资产模式较量!
总结:AI网络的“第二极”已经崛起
博通已不再是那个沉默的硅片供应商,而是手握完整AI以太网栈的“第二极”。
从交换芯片到网卡,从CPO到标准制定,它构建了一个开放、高性能、可扩展的替代方案,直指英伟达的软肋。虽然在GPU邻近性和软件整合上仍有差距,但在异构计算、成本控制和生态自由度上,博通优势明显。
随着AI基础设施走向成熟和理性,这场“开放 vs 封闭”的较量,将决定万亿级AI资本开支的流向。对投资者、工程师、企业决策者而言,忽视博通的AI网络野心,将是致命的误判。
----
极客一语道破
请记住,谷歌TPU芯片的实际供应商是博通公司,而博通公司的CEO陈福强(Hock Tan)是Meta公司的董事会成员。最有可能的赢家是博通公司,因为Meta公司会与博通公司签订合同……
Google 拥有 TPU 架构、指令集和软件栈。 博通公司采用谷歌的架构,创建可制造的ASIC布局,并提供高速SerDes、电源管理和封装方面的专业技术。博通公司还负责流片,并与代工厂合作完成掩模生成、晶圆运行计划以及后加工测试/封装。