作者背景介绍:
本文内容基于对全球关键基础设施技术供应商维谛(Vertiv)最新AI机柜集成方案的深度解析。维谛是全球领先的数据中心基础设施提供商,在电力、热管理和智能监控领域拥有数十年积累,客户涵盖亚马逊、微软、谷歌等顶级云服务商。近年来,维谛积极拥抱AI算力爆发带来的结构性变革,其产品路线图与英伟达“AI工厂”战略高度协同,尤其在800V高压直流配电和直接芯片液冷两大方向形成先发优势。本文综合技术细节、市场趋势与投资逻辑,全面拆解这一高密度AI机柜背后的技术跃迁与商业机会。
【第一章:一台300千瓦AI机柜,正在改写数据中心的游戏规则】
一个普通服务器机柜的功率,竟然能从过去不到10千瓦,一路飙升到300千瓦?这不是科幻电影,而是今天真实发生在AI数据中心里的场景。这台展示中的300千瓦AI机柜,集成了三大原本分散在整个机房的功能:超高密度计算、机柜级高压直流转低压直流供电,以及直抵芯片的液冷散热系统。它不再是一个简单的“铁皮箱子”,而是一座微型“AI工厂”,每一度电、每一滴冷却液都被精密调度,只为支撑大模型训练那近乎贪婪的算力需求。
更关键的是,这套系统完全围绕英伟达提出的800V直流“AI工厂”架构打造。传统数据中心依赖交流电(AC)配电,经过多次转换才能供给服务器,效率低、损耗大、线缆粗如手臂。而800V高压直流(HVDC)直接从变电站输送到机柜门口,再由机柜内部完成最后一步降压,大幅减少铜材用量、降低能耗、节省空间。这种架构正推动行业机柜功率密度从100千瓦迈向100至1000千瓦的新纪元,彻底颠覆我们对数据中心物理形态的认知。
在这套系统中,维谛贡献了两个核心模块——PowerDirect电源系统和CoolChip液冷分配单元(CDU)。它们分别负责“供好电”和“散好热”,而这恰恰是高密度AI负载能否稳定运行的命脉。接下来,我们就一层层揭开这台未来机柜的神秘面纱。
【第二章:从顶部到底部,看懂这个AI机柜的“五脏六腑”】
如果你站在这个机柜前从上往下看,最上面那一排设备其实是标准的网络交换机和管理控制器,用来连接GPU服务器的InfiniBand或以太网通信。这些并不是维谛的产品,只是用来展示整个系统的网络拓扑。
再往下,你会看到多个来自OEM合作伙伴的GPU服务器滑轨(sleds),它们搭载着英伟达GB200/GB300 NVL72这类超高性能AI加速器。这些服务器本身也不是维谛制造,但它们的存在至关重要——正是它们产生了高达300千瓦的热量和电力需求,才催生了下方维谛硬件的登场。
真正的主角出现在贴有紫色标签的位置。第一个模块写着“PowerDirect 90 kW 800 VDC to 50 VDC”,这是维谛的机柜内直流电源货架,能把800伏高压直流电高效转换为50伏低压直流电,供给服务器主板使用。第二个模块标注为“维谛 CoolChip CDU”,这是一个集成泵组、热交换器、储液罐、过滤器和传感器的液冷中枢,专门负责将冷却液精准输送到每一块GPU芯片的冷板上。
机柜底部还有一个触摸屏,那是CoolChip的人机交互界面(HMI),运维人员可以通过它实时监控流量、温度、压力,并处理报警信息。那些带快插接头的编织软管,则负责将冷却液从CDU输送到各个服务器,再把吸热后的高温液体送回热交换器,完成一次完整的热循环。
【第三章:PowerDirect——让高压直流真正“落地”到机柜】
维谛的PowerDirect不是概念产品,而是已经量产的工程解决方案。它的基本单元是1U高的电源货架,单个可输出33千瓦的50V直流电,支持热插拔,效率峰值高达97.5%。通过并联多个货架,单个机柜最高可提供132千瓦的低压直流输出。而在展示的300千瓦机柜中,“90千瓦”的标牌很可能代表三组货架的组合配置。
为什么非要搞800V高压直流?答案藏在电流公式里。300千瓦在50V下意味着6000安培的电流——这几乎无法用常规电缆承载。但如果在上游使用800V供电,同样300千瓦只需约375安培。电流大幅下降,意味着铜缆截面积可以缩小近90%,不仅节省材料成本,还显著降低线路损耗和安装难度。
更重要的是,这种架构符合开放计算项目(OCP)最新的ORV3高功率机柜规范。英伟达在其800V参考设计中明确要求:计算机柜应直接接收两线800V直流馈电,并在机柜内部完成DC/DC转换。这样一来,传统的交流配电单元(PDU)、变压器甚至部分UPS都可以被移出机柜,腾出宝贵的机架空间给更多GPU。
维谛已明确表示,其800V产品线将配合英伟达下一代平台节奏,于2026年下半年开始大规模商用。如果行业广泛采纳这一架构,PowerDirect这类机柜内DC/DC电源货架将成为超大规模AI数据中心的标准配置,开启一轮长达数年的设备替换潮。
当然,竞争者也不少。台达(Delta)、雅特生(Artesyn)、ABB、伊顿(Eaton)和施耐德(Schneider)都在布局类似产品。台达甚至已公开90千瓦的800V转50V电源货架。
因此,维谛的胜负手不在于单个电源模块,而在于能否打包销售整套高压直流生态——包括整流器、母线槽、机柜电源、监控系统和长期运维服务。
【第四章:CoolChip CDU——液冷不再是“可选项”,而是“必选项”】
当单机柜功率突破100千瓦,风冷就彻底失效了。传统空调最多支撑20–30千瓦/柜,再多就会出现局部过热、气流短路等问题。而AI GPU动辄单卡功耗700瓦以上,一个NVL72机柜塞进72颗GPU,总功耗轻松突破120千瓦。这时候,只有液冷能救场。
维谛的CoolChip CDU正是为此而生。它是一个“液对液”系统:一边连接数据中心的设施冷却水(一次侧),另一边循环专用冷却液(二次侧)流经服务器芯片冷板。两者通过内部热交换器隔开,既保证冷却效率,又避免导电液体接触电子元件。
这款机柜内CDU具备冗余泵组、内置储液罐、自动补液泵、精密过滤器、泄漏检测和多单元联动控制功能。对于没有设施冷却水的老机房,维谛还提供“液对空”版本,利用机房空气作为最终热汇,实现平滑过渡。
目前,全球数据中心液冷市场正处于爆发前夜。据多家机构预测,该市场规模将在2030年前以22%–33%的年复合增长率扩张,从当前几十亿美元迈向数百亿级别。维谛作为传统热管理龙头(Omdia数据显示其市占率约23.5%),正快速将其优势延伸至液冷领域,产品线覆盖单机柜、整排乃至园区级多兆瓦系统。
液冷不仅是硬件升级,更是服务升级。相比风冷时代的“装完就走”,液冷系统需要持续监控、维护、防漏、防垢,天然带有高服务粘性和高毛利率。维谛若能借此将商业模式从“卖设备”转向“卖系统+服务”,利润结构将显著优化。
【第五章:电力与冷却如何无缝协同?揭秘系统级集成逻辑】
这套300千瓦机柜的真正精妙之处,在于电力与冷却的深度耦合。设施端首先将交流电整流为800V直流,通过轻量级母线输送到每个AI机柜。机柜内的PowerDirect随即启动,将800V降为50V,通过ORV3标准母排分配给各服务器。
与此同时,设施冷却水流入CoolChip CDU的一次侧回路。CDU内部的泵组驱动二次侧冷却液循环,流经GPU和CPU的冷板,吸收热量后再回到热交换器,将热量传递给设施水带走。整个过程闭环运行,温控精度可达±0.5℃,确保芯片在最佳温度区间工作。
系统还设计了N+1冗余:无论是电源模块还是冷却泵,任意一个故障都不会导致整柜宕机。所有组件支持热插拔,配合远程监控平台,运维人员可在不停机情况下更换故障单元。这种高可用性对AI训练任务至关重要——一次意外停机可能意味着数百万美元的算力损失和数周进度延误。
【第六章:300千瓦是现实还是噱头?看清当前部署的真实水平】
需要澄清的是,目前 commercially shipping(已商用交付)的NVL72机柜实际功率多在120–150千瓦之间。例如惠普企业(HPE)公开数据称其方案总功耗132千瓦,其中115千瓦靠液冷,17千瓦仍需风冷辅助。300千瓦更多是面向未来的工程验证目标,代表行业正在向更高密度冲刺。
但趋势已经非常明确:英伟达联合维谛、ABB等伙伴,正在推动整个产业链向800V高压直流和全液冷架构迁移。一旦技术成熟、标准统一、成本下降,300千瓦甚至更高功率的机柜将成为AI数据中心的标配。
【第七章:维谛的三大增长引擎与潜在风险】
从这台机柜,我们可以清晰看到维谛未来3–5年的三大增长支柱:
第一,高压直流电源系统。若800V成为AI工厂默认标准,维谛的PowerDirect将取代传统AC配电设备,打开百亿级替换市场。
第二,液冷基础设施。随着AI从“几个机柜”走向“整排整栋”,液冷TAM(可服务市场)将指数级扩张,维谛凭借全栈能力有望持续领跑。
第三,AI数据中心资本开支(CapEx)的强劲需求。高盛预测,到2030年数据中心用电量将比2023年增长165%。超大规模云厂商每年投入超3000–4000亿美元建设新设施,维谛作为核心供应商直接受益。
然而风险同样不容忽视。首先是超大规模客户的“自研倾向”。例如亚马逊近期与英伟达合作开发了自己的行级热交换系统,试图绕过传统液冷厂商。这类消息曾一度打压维谛股价,尽管分析师指出维谛仍在亚马逊电力系统中扮演重要角色。
其次是激烈竞争。电源和液冷赛道涌入大量玩家,若维谛仅靠单品竞争,利润空间将被压缩。唯有提供“电力+冷却+控制+服务”的整体解决方案,才能建立护城河。
最后是宏观周期风险。若2026年AI投资出现阶段性放缓,项目延期将直接影响维谛订单兑现节奏。
【第八章:投资视角——如何评估维谛在这场AI基建浪潮中的位置?】
对投资者而言,维谛的价值不在于短期订单波动,而在于其是否卡位在AI数据中心基础设施的“黄金交叉点”——即高压直流与液冷的交汇处。这台300千瓦机柜就是最好的证明:它既是技术宣言,也是商业蓝图。
维谛的优势在于三点:一是与英伟达深度协同,产品路线图高度对齐;二是具备全栈交付能力,从整流到末端冷却一气呵成;三是服务基因深厚,能将一次性设备销售转化为长期收入流。
关键观察指标包括:800V产品是否如期在2026年量产;液冷CDU在AI项目中的配套率;服务收入占比是否持续提升;以及对头部客户的依赖程度是否过高。
乐观情景下,若800V架构在多地区大规模部署,且维谛成功拿下多个大型改造项目(例如将旧风冷机房升级为液冷高密机柜),其增速将显著超越行业平均。悲观情景则是AI CapEx在2026年出现“空气口袋”,叠加某家超大规模客户全面自研,导致维谛单柜价值量下滑。
【结语: PowerDirect和CoolChip两张王牌】
这台静静矗立的300千瓦AI机柜,远不止是一堆硬件的堆叠。它象征着一场静默却深刻的基础设施革命——电力传输方式变了,散热逻辑变了,机柜设计哲学也变了。在这场变革中,维谛没有选择旁观,而是主动下场,用PowerDirect和CoolChip两张王牌,牢牢锚定在AI算力底座的核心位置。
未来的数据中心,将不再是风扇轰鸣的“钢铁森林”,而是安静流淌着冷却液、高效传导着直流电的“智能器官”。而维谛,正努力成为这个新器官的“心脏”与“血管”供应商。成败与否,取决于它能否在技术领先、系统集成与客户信任之间找到那个完美的平衡点。
对于我们普通人来说,或许不必深究800V与50V的区别,但应该意识到:每一次你与大模型的对话背后,都有无数这样的机柜在默默燃烧电力、散发热量,并被像维谛这样的公司精密守护。AI的奇迹,从来不只是算法的胜利,更是基础设施的胜利。