又一个大规模的OpenAI交易:OpenAI和Broadcom今天宣布,10千兆瓦定制人工智能加速器的合作。OpenAI将设计加速器和系统,这些加速器和系统将与Broadcom合作开发和部署。
OpenAI与博通宣布合作部署10吉瓦定制AI加速器,2026下半年启动,2029年完成,全面采用以太网架构,推动AGI基础设施建设。
2025年10月13日,人工智能领域的绝对巨头OpenAI与半导体霸主博通公司(Broadcom Inc.)联合发布了一项史无前例的战略合作计划——双方将携手打造总计10吉瓦(Gigawatts)的定制化AI加速器系统。这项合作不仅规模空前,更标志着AI基础设施建设正式迈入“自研芯片+全栈系统”新纪元。
OpenAI这家由山姆·阿尔特曼(Sam Altman)和格雷格·布罗克曼(Greg Brockman)共同创立的公司,自ChatGPT横空出世以来,便稳坐全球AI创新的头把交椅。如今,它已拥有超过8亿周活跃用户,覆盖全球企业、中小企业及开发者群体。
而博通,则是由陈福阳(Hock Tan)掌舵的全球顶尖半导体与企业软件巨头,总部位于加州帕洛阿尔托,在数据中心、网络、存储、安全等多个关键领域拥有不可撼动的技术壁垒。
这次合作的核心,不是简单的芯片采购,而是深度协同的“系统级共创”。OpenAI将亲自操刀设计AI加速器与整套系统架构,而博通则负责将其工程化、量产化,并提供全套以太网、PCIe及光互联解决方案。换句话说,OpenAI要把过去几年训练前沿大模型所积累的全部经验,直接“烧录”进硬件里,实现软硬一体的极致优化。
根据官方新闻稿,首批搭载这些定制加速器的机柜,预计将在2026年下半年开始部署,并计划于2029年底前全面完成。这些机柜将部署在OpenAI自有的数据中心以及其全球合作伙伴的数据中心中,全部采用博通的以太网技术进行“scale-up”(纵向扩展)和“scale-out”(横向扩展)组网。
这意味着,未来的AI集群将不再依赖传统英伟达InfiniBand等专有互联技术,而是全面拥抱开放、标准化且成本效益更高的以太网生态。
山姆·阿尔特曼在声明中强调:与博通的合作,是我们构建下一代AI基础设施的关键一步。只有拥有强大的底层硬件支撑,才能真正释放人工智能的潜力,为全人类带来切实价值。
而博通CEO陈福阳则直言:这标志着我们向通用人工智能(AGI)迈进的关键转折点。OpenAI自ChatGPT引爆AI革命以来始终引领潮流,我们非常荣幸能与其共同开发并部署这10吉瓦的下一代加速器与网络系统。
博通半导体解决方案集团总裁查理·卡瓦斯博士(Charlie Kawwas)进一步解释道,这种定制加速器与标准以太网的结合,不仅能实现性能最大化,还能显著优化成本与能效。他特别指出,博通提供的端到端以太网、PCIe和光连接方案,将确保整个AI集群在扩展性、可靠性和效率上达到行业新标杆。
值得注意的是,这并非双方首次合作。新闻稿透露,OpenAI与博通早已就AI加速器的联合开发与供应达成长期协议。此次签署的条款清单(term sheet),则是将合作推向规模化部署的关键一步。这也意味着,OpenAI正在从“纯软件+云服务”模式,坚定地向“软硬协同+基础设施自建”战略转型。
在当前全球AI算力需求呈指数级增长的背景下,这一举措具有深远意义。一方面,自研芯片可摆脱对英伟达等第三方供应商的依赖,掌握技术主动权;另一方面,通过与博通这样的顶级硬件伙伴深度绑定,又能确保供应链的稳定性与技术先进性。
更重要的是,10吉瓦的电力容量——这几乎相当于一座中型核电站的输出功率——足以支撑未来数年OpenAI在通用人工智能(AGI)道路上的疯狂探索。
当然,公告也附带了标准的“前瞻性声明”警示。博通提醒投资者,该项目涉及全球政治经济环境、供应链波动、技术开发风险、市场竞争等多重不确定性,实际进展可能与预期存在偏差。但即便如此,这一合作所释放的信号已足够强烈:AI的下一阶段竞争,不仅是算法和数据的比拼,更是底层基础设施与系统工程能力的终极较量。
对于整个科技产业而言,OpenAI与博通的联手,或将重塑AI数据中心的架构标准。以太网能否借此机会彻底取代InfiniBand在高性能AI集群中的地位?ASIC定制化AI芯片是否会成为头部大模型公司的“标配”?这些问题的答案,或许就藏在这10吉瓦的宏大蓝图之中。
可以预见,在未来几年,我们将看到更多科技巨头走上“自研+生态合作”的道路。
OpenAI正在与SoftBank的Arm合作开发Broadcom AI芯片
又一个AI循环交易......软银子公司ARM获得OpenAI数十亿美元的CPU订单。与此同时,软银已同意从今年开始每年从OpenAI购买价值数十亿美元的人工智能技术,包括可以帮助ARM子公司缩短芯片开发周期的技术。