软银救援OpenAI:投资30亿为其打造专门模块化超算中心


软银投资30亿美元改造俄亥俄工厂,为OpenAI生产模块化数据中心,推动其向全栈AI巨头转型,目标2033年掌控250吉瓦算力。  

软银豪掷30亿美元改造俄亥俄工厂,为OpenAI打造“AI基建航母”

2025年11月23日,一则震撼全球科技圈的消息浮出水面:软银集团计划投入高达30亿美元,将位于美国俄亥俄州劳德斯顿(Lordstown)的一座电动汽车工厂彻底改造为专供OpenAI数据中心的制造基地。

这家工厂原属于富士康,软银今年8月以3.75亿美元的价格购入,如今正被注入巨额资金,目标只有一个——成为OpenAI算力帝国的“兵工厂”。

据知情人士透露,该工厂最快将于2026年第一季度开始批量生产模块化数据中心单元,这些“即插即用”的算力集装箱将被运往得克萨斯州米拉姆县——那里由软银旗下SB Energy开发的30亿美元数据中心基地已经蓄势待发,此外还有多个尚未公开的选址也将同步部署。

这一动作,不仅标志着今年1月在白宫高调宣布的软银-OpenAI联合项目正式落地,更预示着AI行业正从“模型竞赛”全面升级为“基础设施战争”。

  
OpenAI要当“全栈AI巨头”,不再只做模型供应商

过去,OpenAI给人的印象是一家专注大模型研发的明星初创公司,依赖微软Azure提供算力支持。

但如今,它正以惊人的速度向“全栈AI巨头”转型。今年9月,OpenAI首席财务官莎拉·弗莱尔(Sarah Friar)在高盛科技大会上直言:“要把OpenAI打造成一家真正的全栈公司。”这句话不是客套,而是战略宣言。

所谓“全栈”,意味着从芯片设计、服务器制造、数据中心建设,到模型训练、应用部署,全部掌握在自己手中。

这正是谷歌、亚马逊等科技巨头早已走通的路径。并且谷歌全栈成果gemini3在各项评测中遥遥领先GPT-5 已经证明!谷歌Gemini 3领跑显全栈威力!OpenAI承认基于英伟达GPU的预训练受挫 

OpenAI现在要复制这条路径,甚至走得更激进。

据内部人士透露,OpenAI高管已向投资人明确表示,未来十年其计算基础设施总投入将超过4500亿美元。

为了不被“卡脖子”,它不仅要自己建数据中心,还要自己造芯片——目前已与博通(Broadcom)合作开发定制AI服务器芯片,预计2026年下半年即可投入使用。

更关键的是,OpenAI希望借此摆脱对微软的过度依赖。尽管双方仍有营收和知识产权共享协议,但OpenAI显然不愿将核心算力架构的“命脉”交由他人掌控。

自己掌握数据中心,才能独家优化芯片调度、训练流程和能耗效率,形成真正的技术护城河。

  
软银扛起180亿美元重担,OpenAI出资成谜

回溯到2025年1月,软银与OpenAI在白宫共同宣布成立名为“星门”(Stargate)的合资项目,双方各自承诺投入180亿美元。

然而时至今日,情况似乎出现微妙变化。多位消息人士称,软银仍坚定承诺全额出资180亿美元,但OpenAI是否还会如数投入,目前尚无明确答案。这背后或许反映出OpenAI在资金调配上的谨慎,也可能意味着软银正主动承担更多基建压力,以换取未来在AI生态中的更大话语权。

要知道,软银不仅是OpenAI的重要股东,更是其长期战略伙伴。

孙正义一直押注AI是“下一个时代操作系统”,而OpenAI正是他眼中的核心引擎。

因此,即便OpenAI暂时放缓出资节奏,软银也愿意独自推进工厂建设和数据中心部署。这种“先建后用”的策略,既能加速项目落地,也能向市场释放强烈信号:AI基建竞赛已经进入“真金白银”的阶段,不是喊口号就能赢的。

  
模块化数据中心:7个月建成 vs 传统12个月,效率提升20%

劳德斯顿工厂的核心产品,不是传统意义上的服务器机柜,而是高度集成的“模块化数据中心单元”。

这些单元在工厂内完成组装、布线、冷却系统安装甚至初步测试,运抵现场后只需吊装、对接、通电即可投入使用。

据施耐德电气(Schneider Electric)负责数据中心技术的高级副总裁吉姆·西蒙内利(Jim Simonelli)介绍,这种模块化建造方式可将数据中心建设周期从传统的12个月缩短至7-8个月,效率提升10%到20%。

对于OpenAI这样急需算力扩张的公司而言,时间就是竞争力。

更妙的是,这些模块像乐高积木一样可灵活拼接,初期部署少量单元,后续根据需求逐步扩展,避免一次性巨额投资浪费。

工厂内甚至计划设立一个“迷你数据中心展厅”,作为未来大型项目的样板间。这种工业化、标准化、可复制的模式,正是AI时代数据中心建设的新范式——不再追求“地标建筑”,而是追求“快速部署、弹性扩展、极致能效”。

  
6000亿美元算力采购网:微软、甲骨文、亚马逊、谷歌、CoreWeave全入局

别以为OpenAI只靠自建数据中心就能满足需求。事实上,它正在编织一张史无前例的“算力采购巨网”。

据披露,OpenAI已与微软、CoreWeave、亚马逊、谷歌和甲骨文(Oracle)等云服务巨头签署协议,未来将租赁价值超过6000亿美元的服务器资源。

其中,甲骨文的角色尤为关键——作为“星门”项目联合发起方,它承诺在2027年起的五年内,向OpenAI提供价值3000亿美元的计算能力。这些算力将部署在得州阿比林(Abilene)、新墨西哥州、威斯康星州等地,部分站点由专注AI能源效率的初创公司Crusoe负责开发。

这种“自建+租赁”双轨并行的策略,既保障了核心模型训练的自主可控,又通过外部云资源应对突发需求和全球部署。

OpenAI显然深谙“鸡蛋不能放在一个篮子里”的道理,尤其是在芯片供应紧张、电力审批复杂的当下,多供应商策略是生存必需。

  
芯片战争:英伟达、AMD供货数百亿,博通联手定制

没有芯片,数据中心就是空壳。

OpenAI深知这一点,已与英伟达(NVIDIA)、超威半导体(AMD)达成总价值可能高达数百亿美元的AI芯片采购协议。与此同时,它正与博通紧密合作,开发专属AI服务器芯片。这款定制芯片预计2026年下半年量产,将针对OpenAI的模型架构(如GPT-5、GPT-6)进行深度优化,大幅提升训练效率并降低功耗。

这意味着,未来OpenAI的数据中心将运行三种芯片:通用型英伟达GPU用于灵活任务,AMD加速器作为补充,而博通定制芯片则用于核心大模型训练。

这种“三驾马车”策略,既能避免单一供应商风险,又能通过定制化实现性能突破。更深远的意义在于,一旦OpenAI掌握芯片设计能力,它就不再只是AI模型公司,而是真正的“AI基础设施公司”——这正是它与Anthropic、Mistral等纯模型厂商拉开差距的关键。

  
算力即服务:OpenAI未来要向全世界卖“AI云”

别以为这些数据中心只服务OpenAI自己。CEO山姆·奥特曼(Sam Altman)本月在X平台上明确表示:“我们也在探索直接向其他公司甚至个人出售计算能力的方式。我们坚信世界将需要海量的‘AI云’,而我们很兴奋能提供这一服务。”

想象一下,未来中小企业无需自建AI团队,只需按需租用OpenAI的数据中心算力,即可运行自己的AI应用。这不仅开辟了全新收入来源,更将OpenAI从“工具提供商”升级为“平台运营商”。

  
250吉瓦目标:奥特曼的“疯狂电力计划”相当于美国三分之一峰值用电

最令人瞠目结舌的,是阿尔特曼为OpenAI设定的终极目标:到2033年,掌控250吉瓦(GW)的数据中心电力容量。

作为对比,2025年全球所有AI数据中心总用电量约2.4吉瓦,而美国全国的峰值电力消费约为750吉瓦。

这意味着,OpenAI计划在8年内构建一个相当于当前美国三分之一国家电网容量的AI专用电力系统。这听起来近乎疯狂,但细想却有其逻辑。随着多模态模型、实时推理、个人AI代理(Agent)的普及,算力需求将呈指数级增长。

奥特曼曾对同事坦言,此举是为了在“资源更雄厚”的对手(如谷歌、Meta、微软)面前保持领先。而实现这一目标的唯一路径,就是自建数据中心+自控电力+自研芯片。软银在劳德斯顿的工厂,正是这场“电力-算力-智能”三位一体战争的第一块砖。