带大家潜入AI世界最硬核的底层——算力基础设施。你可能天天听说ChatGPT、Sora、GPT-5,但你知道这些惊艳全球的AI模型背后,到底靠什么“喂”出来的吗?答案不是代码,不是数据,而是实打实的硬件!今天我们就来深度拆解一张图——《OpenAI基础设施与硬件食物链》,带你看看这个价值千亿美元的“算力工厂”到底由谁在撑着。
首先,整个AI算力体系的核心,毫无疑问是GPU。目前OpenAI主要依赖英伟达(NVIDIA)的GPU集群,当然AMD也在悄悄布局。但你可能不知道,这些芯片从设计到出厂,背后是一条横跨全球的精密产业链。芯片设计由英伟达或AMD完成,但制造却交给了全球最顶尖的晶圆代工厂——台积电(TSMC)。没错,就是那个连苹果都离不开的台积电。
而芯片封装测试环节,同样由台积电旗下的IASE部门主导,部分测试则外包给京元电子(KYEC)这样的专业测试厂。
至于芯片最终能不能用,还得靠爱德万测试(Advantest)这类高端SoC测试设备来把关。
可以说,一颗GPU从图纸变成服务器里的“大脑”,至少要经过五六个世界级企业的接力。
除了GPU,OpenAI也在布局定制化ASIC芯片——也就是专用人工智能芯片。这类芯片通常由博通(Broadcom)这类巨头设计,同样在台积电流片制造,封装测试流程也高度相似。
这意味着,无论走通用GPU路线还是专用ASIC路线,台积电几乎成了不可绕开的“命门”。这也解释了为什么全球科技巨头都在抢台积电的产能——谁掌握了先进制程,谁就握住了AI时代的入场券。
再往下看,高性能计算离不开内存,尤其是高带宽内存(HBM)。HBM是GPU和AI芯片的“血液输送系统”,没有它,再强的芯片也会“缺氧”。
目前全球能大规模量产HBM的厂商只有三家:韩国的SK海力士、三星电子,以及美国的美光(Micron)。其中SK海力士是英伟达H100等旗舰芯片的主要HBM供应商。而这些内存芯片的测试,同样依赖爱德万测试和泰瑞达(Teradyne)的高端设备。别小看这一步,HBM的堆叠结构极其复杂,测试良率直接决定整机成本。
除了HBM,传统DRAM也是数据中心不可或缺的部分。这部分市场同样由SK海力士、三星和美光三巨头垄断。
换句话说,在内存领域,韩国和美国牢牢掌控着AI基础设施的命脉。
再往下一层,是很多人忽略但极其关键的“基板”——也就是芯片封装所用的基板(Substrate)。这玩意儿听起来不起眼,但技术门槛极高,需要在微米级精度上布线。全球能供应高端基板的厂商屈指可数,包括日本的揖斐电(Ibiden)、台湾的欣兴电子(Unimicron)和凸版印刷(Toppan)。这些公司虽然名字不响,但一旦断供,整个芯片封装线就得停摆。
而基板之上,是更宏观的印刷电路板(PCB)。AI服务器的主板可不是普通电脑能比的,它要承载上百颗GPU、高速互联、液冷接口,复杂度爆表。目前主要PCB供应商包括健鼎(VGT)、欣兴、华通(WUS)、相互(ISU)、TTM科技,以及联能科技(Lincstech)。这些企业大多集中在东亚,构成了AI硬件制造的“沉默中坚力量”。
再说到铜箔基板(CCL),这是PCB的原材料,由韩国斗山(Doosan)和EMC等厂商提供。别看只是“板子”,但高频、低损耗的CCL是高速信号传输的基础,直接影响AI集群的通信效率。
供电系统同样关键。AI服务器功耗动辄几十千瓦,一个机柜可能比一栋小楼还耗电。因此,高效、稳定的电源模块至关重要。目前主力供应商是台达电子(Delta),这家台湾企业是全球数据中心电源的隐形冠军。此外,光宝科技(Liteon)也为甲骨文(Oracle)等客户提供定制电源,而雅达电子(Artesyn)则服务于戴尔(Dell)的AI服务器。
但最让人震撼的,其实是冷却系统。AI芯片发热太猛,风冷早就扛不住了,必须上液冷。
液冷系统又分几个部分:
首先是CDU(冷却分配单元)或叫“Sidecar”,主要由维谛技术(Vertiv)提供,这家美国企业是数据中心基础设施的老牌巨头。
甲骨文的液冷方案则由富士康(Hon Hai)参与,戴尔同样依赖维谛。
其次是冷板(Coldplate),直接贴在GPU上导热。酷冷至尊(CoolerMaster)是主力供应商,这家以游戏散热闻名的品牌,如今已杀入企业级市场。甲骨文还在测试Auras和AVC的方案,戴尔则继续用酷冷至尊。
最后是液冷管路中的“血管”——歧管(Manifold),同样由酷冷至尊主导,Auras和AVC也在争取份额。整套液冷系统看似简单,实则涉及流体力学、材料科学和精密制造,全球能玩转的企业不超过十家。
说到服务器整机,就更复杂了。
OpenAI自己并不造服务器,而是通过云厂商和ODM代工厂来部署。比如,英伟达AI服务器机柜,甲骨文主要交给富士康代工,辅以广达(Quanta)、纬颖科技(Wiwynn,属和硕旗下)、戴尔和超微(SMCI)。而AMD的AI服务器,甲骨文则主要依赖富士康,辅以神达(MiTAC)。
软银(SoftBank)作为日本科技巨头,也在布局AI基础设施,其AI服务器由富士康和东元电机(TECO)合作打造,后者负责电力模块和模块化数据中心方案。
更特别的是那些“半定制ASIC服务器”,比如为特定AI芯片设计的机柜,主力代工厂是伟创力(Celestica),这家加拿大企业擅长高复杂度定制化生产,广达和纬颖也参与其中。
而新兴AI云厂商CoreWeave,则主要通过戴尔采购英伟达AI服务器,同时也用超微和技嘉(Gigabyte)作为补充。这说明,即使是初创公司,也必须依赖成熟的硬件生态才能快速部署算力。
最后别忘了网络。AI集群不是单打独斗,而是成千上万台服务器高速互联。这里的关键玩家是Arista Networks(中文常称“阿瑞斯塔”)和伟创力(Celestica)。Arista提供超低延迟的交换机,而Celestica则可能参与网络设备的制造或集成。没有这张高速网络,再强的GPU也只是孤岛。
总结一下,OpenAI的算力帝国,其实是一个由全球数百家企业组成的精密协作网络。从台积电的晶圆,到SK海力士的HBM,从富士康的组装,到维谛的液冷,再到Arista的网络——每一个环节都不可或缺。这张图不仅揭示了AI的硬件底牌,更暴露了全球供应链的脆弱性:任何一个环节出问题,都可能让整个AI进程慢下来。
所以,下次你惊叹于AI生成的视频或文章时,请记住:背后是无数工程师、工厂、测试设备和物流系统在默默支撑。AI不是魔法,而是人类工业文明的巅峰协作。
涉及A股上市公司的关键环节与标的
在OpenAI算力基础设施的全球硬件食物链中,尽管核心芯片、高端内存和部分系统集成仍由海外或中国台湾企业主导,但A股上市公司已在多个关键环节实现深度参与甚至直接供货。具体来看:
在印刷电路板(PCB)环节,虽然图中列出的VGT、华通(WUS)和TTM等主要为境外企业,但A股的沪电股份(002463.SZ)和深南电路(002916.SZ)已成功切入全球AI服务器供应链,其中沪电股份更是英伟达H100/B100等高端AI加速卡服务器PCB的核心供应商,技术能力达到国际一流水平。
在覆铜板(CCL)这一PCB上游关键材料领域,图中提及的斗山(Doosan)和EMC均为海外厂商,但A股的生益科技(600183.SH)作为全球第二大覆铜板制造商,已量产适用于AI服务器的高频高速CCL产品,并进入国际头部客户的认证体系;南亚新材(688519.SH)也在积极突破高端CCL技术,有望逐步导入AI算力供应链。
在电源系统方面,虽然主供厂商如台达电子(Delta)、光宝科技(Liteon)和雅达(Artesyn)均非A股公司,但麦格米特(002851.SZ)、科华数据(002335.SZ)等A股企业已通过提供电源模块或数据中心电力解决方案,间接参与AI基础设施建设。
在液冷散热系统这一AI服务器必备环节,尽管图中主力供应商维谛(Vertiv)、酷冷至尊(CoolerMaster)等尚未在A股上市,但英维克(002837.SZ)、高澜股份(300499.SZ)和同飞股份(300990.SZ)等A股公司已推出成熟的冷板、CDU及液冷整体解决方案,并实际应用于国内多个智算中心项目,技术实力和客户覆盖持续提升。
尤为关键的是服务器整机代工(ODM)环节。图中多次出现的“Hon Hai”(富士康)正是全球AI服务器的重要制造商,而其在A股的上市平台——工业富联(601138.SH)——直接承担了英伟达AI服务器的整机组装任务,服务对象包括甲骨文、微软等国际云巨头,是该食物链中A股唯一明确对应的核心制造主体。
相比之下,在高端芯片制造(如GPU、ASIC)和高带宽内存(HBM/DRAM)等最上游环节,目前仍由台积电、SK海力士、三星和美光等垄断,A股尚无企业具备量产能力。中芯国际(688981.SH)在先进制程上仍有差距,长鑫存储虽在推进DRAM国产化,但尚未上市且未进入HBM供应链。
综上所述,A股已在AI算力基础设施的中下游环节形成扎实布局,工业富联、沪电股份、生益科技、英维克等公司构成了“中国版AI硬件食物链”的骨干力量,具备明确的产业逻辑和成长潜力。