OpenAI硬件豪赌恐引爆AI芯片供应链危机:定制芯片泡沫正在悄悄膨胀!

前AMD工程师警告,OpenAI依赖定制芯片且缺乏真实终端收入,正制造AI硬件泡沫,一旦需求萎缩,将冲击英伟达、博通等整个供应链。


【一、定制芯片的“单恋”困局:为一家客户打造,却可能无人接盘】

一位前超威半导体(AMD)的资深专家近日发出警告:OpenAI当前的财务结构和采购策略,可能正在悄然扰乱整个AI硬件供应链的稳定性。

他指出,定制化芯片(ASIC)与通用图形处理器(GPU)存在本质区别——前者通常只为单一客户量身打造,几乎无法转售或复用。

即便合同中包含对不可回收工程成本的预付款条款,客户仍可在制造前选择退出合作。一旦发生这种情况,芯片厂商将面临巨额沉没成本,而芯片本身则彻底沦为“废硅”。

这一风险已在博通(Broadcom)与OpenAI的合作中初现端倪:双方签署的定制芯片协议具有排他性,仅限OpenAI使用,一旦项目终止,博通几乎无法将该芯片用于其他客户。



【二、GPU进化太快,定制芯片的“十倍优势”神话正在崩塌】

该专家进一步分析,企业之所以愿意承担定制芯片的高风险,通常是因为其性能或能效相比通用硬件能带来10倍甚至100倍的提升。

然而现实正在发生变化:英伟达(NVIDIA)等厂商的GPU迭代速度惊人,新一代产品已能将与定制芯片的性能差距缩小至20%到50%之间。在这种情况下,许多公司开始重新评估是否值得投入巨资开发全新的软件栈、驱动程序和运行环境。

毕竟,GPU不仅生态成熟、开发便捷,还能灵活支持多种模型和任务。

如果定制芯片无法提供压倒性优势,OpenAI完全可能放弃与博通的合作,转而继续依赖不断进化的GPU集群——这将使博通前期投入血本无归。



【三、谷歌与亚马逊的AI芯片路径:封闭自用 vs 开放共赢】

值得注意的是,并非所有科技巨头都面临同样的风险。专家特别对比了谷歌(Google)与亚马逊(Amazon)在AI芯片战略上的根本差异。

谷歌的张量处理单元(TPU)主要为其内部业务服务,例如YouTube推荐系统、搜索排序和广告引擎等,其硬件与软件高度耦合,形成一个近乎封闭的生态系统。
据统计,谷歌约60%的AI算力需求来自内部团队,这种模式虽能实现极致优化,却严重限制了TPU对外部开发者的吸引力。

反观亚马逊,其云服务(AWS)约60%的工作负载来自第三方客户,因此其自研芯片如Inferentia(推理芯片)和Trainium(训练芯片)在设计之初就强调通用性和跨客户适配能力。这种“开放优先”的策略,显著降低了亚马逊芯片的市场风险,也增强了客户粘性。



【四、投资者被“AI光环”蒙蔽,忽视硬件生态的脆弱本质】

该前AMD工程师痛心指出,当前资本市场对AI芯片的热情近乎狂热,却严重低估了定制硬件生态的脆弱性。

在传统半导体行业,技术标准和接口规范往往提前数年确定,供应链各环节有充足时间协调与准备。但AI领域完全不同——需求变化极快,架构频繁更迭,硬件投资缺乏长期确定性。然而,许多投资者只是盲目追随OpenAI的采购风向,看到它与哪家芯片公司合作就一拥而上买入股票,却从未思考:如果OpenAI突然改变技术路线或缩减采购规模,这些专用芯片是否还有价值?

这种“追热点”式投资,正在将整个AI硬件供应链推向一个由预期而非实际需求支撑的危险境地。



【五、真正的隐患在需求端:OpenAI缺乏可持续的第三方收入】

最后,专家一针见血地指出,整个AI硬件泡沫的根源不在技术,而在商业模式。

OpenAI至今未能建立起稳定、可扩展的第三方收入来源。它的主要客户几乎仅限于微软(Microsoft)等少数战略合作伙伴,以及为其提供芯片和云服务的供应商本身。这种结构极易形成“循环投资”——即芯片公司和云厂商为维持合作关系而持续投入,而这些投入又反过来被计入OpenAI的估值或融资故事中,却缺乏真实终端用户的付费支撑。

一旦OpenAI的商业模型再次转向,或市场对其产品热情降温,整个由资本堆砌的AI硬件大厦可能瞬间失去支点,引发连锁反应,波及英伟达、博通、亚马逊乃至整个半导体产业链。