为AI工厂赋能:用直连芯片液冷技术扩展生成式AI


本报告揭示数字领导者如何通过建设液冷AI工厂实现高速增长,强调直连芯片液冷技术对提升算力密度与能效的关键作用,预示未来数据中心将向智能化生产模式转型。

IDC发布的权威报告《为AI工厂赋能:用直连芯片液冷技术扩展生成式AI》:

先给大家介绍一下这份报告的背景:作者是来自IDC欧洲、中东和非洲地区的两位IT基础设施专家——安德鲁·布斯和路易斯·费尔南德斯。IDC大家应该不陌生吧?全球顶级的科技市场研究机构,他们说的话,在业内那可是金科玉律。这份报告是在2025年7月发布的,由超微电脑(Supermicro)和英伟达联合赞助,含金量非常高,可以说是一份揭示未来五年AI基建趋势的“预言书”。

我们先来看一组震撼的数据:报告里说,在所有企业中,只有26%属于“数字领导者”,他们是最早拥抱新技术、把IT当成核心竞争力的那一拨人。而这群人里面,有高达31%的企业实现了年收入增长超过10%,相比之下,“数字主流者”只有18%,“数字追随者”更是低到只有7%。这说明什么?说明真正的赚钱机器,早就不是靠人力堆出来的,而是靠智能化系统驱动的!他们的数据中心已经不再是成本中心,而是变成了“印钞机”——也就是所谓的“AI工厂”。

那么问题来了,这些AI工厂到底是怎么运作的呢?

关键就在于“生成式AI”的爆发式需求。现在的AI不再只是回答问题那么简单,它开始具备“推理能力”。
比如你在用某个AI助手时,它会先思考几种不同的答案路径,再选出最优解,这个过程叫做“测试时扩展”,计算量可能是普通推理的100倍!这意味着GPU要持续高强度运转,发热量巨大,传统的风冷散热根本扛不住。

这就引出了一个致命瓶颈——功耗密度:数据显示,从2020年的A100显卡到2025年的B300,单个SXM接口GPU的热设计功耗已经从400瓦飙升到了1400瓦!一个机柜如果放32块风冷GPU,总功率大概65千瓦;但如果换成直连芯片液冷技术,可以塞下96块GPU,功率直接冲上350千瓦以上!未来的费曼GPU世代,甚至可能达到每机柜100千瓦以上。这种级别的算力密度,传统数据中心根本无法承载。

更残酷的是,很多企业已经面临“电力不够用”的窘境。调查显示,34%的数字领导者认为AI导致IT基础设施耗电剧增,17%的人直言“拿不到足够的电力来运行AI工作负载”。而且电费越来越贵,29%的企业为此头疼不已。在这种情况下,每一瓦电力都极其珍贵——用来做AI训练和推理的就是收入,浪费在散热和供电损耗上的就是亏损。

所以解决方案是什么?答案就是“直连芯片液冷技术”!

这项技术直接将冷却液输送到CPU和GPU等发热核心部件上,通过液体高效带走热量。

相比传统风冷动辄60%以上的冷却和其他数据中心开销占比,液冷可以把这部分能耗压到20%以下,达到最佳状态。

目前全球最高效的那些数据中心PUE(电源使用效率)能做到1.2以下,而液冷加持下,完全可以逼近理论极限1.0。

这项技术的好处太多了:
首先,它能支持100千瓦以上的高密度机柜,让AI工厂实现规模化量产;

其次,由于散热效率极高,处理器可以长时间稳定运行在最高加速频率,性能完全释放;

第三,噪音大幅降低,工程师终于不用戴着耳塞上班了;

第四,用水效率更高,符合ESG环保要求;

最重要的是,它显著降低了总体拥有成本(TCO),让大规模部署生成式AI变得经济可行。

报告还指出,数字领导者们已经在全面布局:除了液冷,他们还在广泛采用容器化、Kubernetes、多云服务、实时数据处理、自动化运维等一系列先进技术。而在2024年的IT优先级中,“构建生成式AI基础设施”已经高居第二位,仅次于安全合规。越来越多的企业意识到,AI不再是可选项,而是生存必需品。

总结一下,未来的竞争,本质上是算力基础设施的竞争。谁能率先建成高效、可持续、高密度的AI工厂,谁就能在智能时代掌握话语权。而直连芯片液冷技术,正是打开这扇大门的钥匙。这不是科幻,而是正在发生的现实。