一份来自华尔街顶级投行Bernstein的深度拆解报告,内容爆炸到你可能需要暂停喝口水再继续往下看。这份报告聚焦的是NVIDIA旗下最神秘也最赚钱的产品线之一——Rubin系列AI服务器柜体中的“电源组件”价值演变路径。
这里面藏着未来五年AI硬件赛道最大的财富密码。我们不是在讲技术参数,而是在拆解一场由GPU功耗引爆、由电源架构重塑、最终由全球数据中心买单的超级产业革命。
首先,咱们得搞清楚一个基本概念:什么叫“电源组件”?
它可不是你家里插电板那种小玩意儿。在NVIDIA的AI服务器世界里,“电源组件”是一个庞大而精密的生态系统,包括但不限于:电源供应单元(PSU 电容)、电池备份单元(BBU)、高压直流配电系统(HVDC)、功率电容、电子保险丝(e-Fuse)、散热模块、机柜结构件等等。
这些部件看似不起眼,但它们是整个AI算力引擎的“心脏”和“血管”,没有它们,再牛的GPU也只能当摆设。
Bernstein的分析师团队通过拆解NVIDIA从GB200到VR Ultra的四代产品路线图,发现了一个惊人的趋势:随着AI模型越来越复杂,训练数据量越来越大,GPU的功耗也在疯狂飙升,而支撑这些功耗的电源组件,其价值占比和绝对金额,正在以几何级数增长。这不是简单的成本增加,而是一场彻底的架构重构和价值链重塑。
接下来,我们进入第一部分,也是整个故事的起点——GB200系列。
这是NVIDIA当前主力AI服务器平台,基于B200 GPU构建,单柜设计供电能力为198千瓦,实际额定功耗约130千瓦。
这个数字听起来很大,但在AI圈子里已经算是“保守派”了。
为什么这么说?因为GB200本身预留了充足的功率冗余,换句话说,它的电源系统其实“很富裕”,不需要额外加码就能应付日常负载。
所以,在这个阶段,电源组件的价值提升主要体现在“优化”而非“扩容”。
具体来说,GB200 NV72柜体中,电源组件总价值约为40,000美元。其中,PSU占了26,000美元,BBU占了10,000美元,其他机电部件如电容、连接器等占了8,000美元。
这个比例看起来挺均衡,但实际上,PSU的份额已经接近饱和,因为柜体本身的供电能力足够强大,不需要再往上堆料。
真正带来增量的是BBU的普及率:在GB200时代,BBU的采用率大约是30%,主要用于应对电网波动或突发断电,确保训练任务不中断。这是一个非常聪明的设计,既控制了成本,又提升了系统的可靠性。不过,这只是序章,真正的重头戏还在后面。
然后,我们来到第二部分——GB300系列,特别是以GB300 NV72为代表的这一代产品。
如果说GB200是“稳扎稳打”,那么GB300就是“火力全开”。
这一代产品的核心变化在于负载动态性大幅提升,也就是说,GPU的工作状态不再是平稳运行,而是频繁地在高负载和低负载之间切换,这对电源系统提出了前所未有的挑战。
为了应对这种高频次的功率波动,NVIDIA不得不在电源架构上做出重大调整。
首先是BBU的采用率从30%飙升至50%,这意味着每两个柜子中就有一个配备了备用电池,成本自然水涨船高。
其次是功率电容的用量大幅增加,这些小小的元件虽然单价不高,但数量巨大,主要用于吸收和释放瞬时能量,防止电网干扰影响GPU性能。
至于PSU,它的份额反而保持不变,因为GB200的冗余设计已经足够应对GB300的需求,不需要更换更大功率的电源模块。
综合来看,GB300 NV72的电源组件总价值达到了46,000美元,相比GB200提升了15%。这个增幅看似不大,但要知道,这15%全部来自于新增的功能性组件,而不是简单的功率扩容,说明NVIDIA在电源系统上的投入正从“基础保障”转向“性能优化”。
接下来,我们进入第三部分——VR200系列,也就是Vera Rubin系列的第二代产品。
这才是真正让所有电源供应商闻风丧胆的“怪兽”。
这一代产品的最大特点是GPU功耗的跃升,从B200的1.2千瓦直接跳到R200的1.8至2.3千瓦,几乎翻了一倍。
这意味着什么?意味着单柜的设计供电能力必须从198千瓦提升到288千瓦甚至330千瓦,才能满足GPU的峰值需求。
一个柜子的功率相当于一个小工厂,这已经不是普通的服务器,而是名副其实的“电力巨兽”。
为了支撑这样的高功率密度,NVIDIA对电源架构进行了全面升级。首先是PSU的功率规格从6*33kW提升到10*33kW,总功率容量直接翻倍。
其次是BBU的采用率达到了100%,也就是说,每一个VR200柜子都标配了备用电池,确保在任何情况下都不会断电。
此外,由于功率密度的提升,传统的风冷散热已经无法满足需求,因此VR200系列开始引入液冷技术,这也间接带动了冷却系统相关组件的价值增长。
综合来看,VR200系列的电源组件总价值达到了78,000美元,是GB200的两倍,是GB300的1.7倍。这个增幅已经不能用“显著”来形容,而应该叫“颠覆性”。它标志着NVIDIA的AI服务器正式从“高性能计算”迈入“超高功率密度计算”的新纪元。
最后,我们来到第四部分——VR Ultra系列,也就是Kyber柜体,搭载最新的NV576平台。
如果说前面三代产品是在“修路”,那么VR Ultra就是在“造飞船”。这一代产品的技术突破可以用“革命性”来形容。
首先是GPU数量的翻倍,从72颗增加到144颗,核心总数更是从144个飙升到576个。
其次是GPU功耗的再次飞跃,预计将达到3.6千瓦,几乎是B200的三倍。
面对如此恐怖的功率需求,传统的低压交流供电架构已经完全失效,NVIDIA不得不祭出终极武器——800伏高压直流(HVDC)供电技术。这是一种专为超大规模数据中心设计的供电方案,能够以更低的损耗、更高的效率传输巨大的电能。
采用HVDC技术后,VR Ultra的单柜设计供电能力达到了惊人的900千瓦,是GB200的四倍多。
为了支撑这套复杂的供电系统,电源组件的价值也迎来了史诗级的爆发:
PSU的功率规格从10*33kW升级到5*180kW,总功率容量达到900千瓦。
BBU的采用率依然是100%,但由于功率更大,电池容量也随之增加。
更重要的是,HVDC技术的引入带来了大量全新的组件需求,比如高压电容、电子保险丝、HVDC冷却系统、专用机柜结构件等等。
这些部件在过去根本不存在于AI服务器的BOM清单中,但现在却成了不可或缺的核心组件。
综合来看,VR Ultra系列的电源组件总价值达到了302,000美元,是GB200的7.6倍,是VR200的3.9倍。这个数字已经不是简单的成本增加,而是一整套全新生态系统的建立。
现在,让我们把视角拉远一点,看看整个市场的宏观图景。
根据Bernstein的预测,到2027年,NVIDIA AI服务器的电源组件总市场规模(TAM)将超过80亿美元,相比2025年的40亿美元实现翻倍增长。这个增长速度远远超过了GPU本身的出货量增速,说明电源组件正在成为AI硬件赛道中最具爆发力的细分领域。
为什么会这样?原因很简单:AI算力的竞争已经从单纯的“芯片性能”转向“系统级效能”。一个GPU再强,如果供电不稳定、散热跟不上、电源效率低下,那它的性能也无法完全发挥。
因此,未来的AI服务器之争,本质上是“供电+散热+架构”的综合较量。而在这场较量中,电源组件扮演着至关重要的角色。它们不仅是成本中心,更是性能瓶颈的突破口。谁能提供更高效率、更稳定、更紧凑的电源解决方案,谁就能在AI服务器市场占据主导地位。
说到这里,你可能会问:哪些公司会从中受益?答案是那些深耕电源技术、具备高功率密度设计能力、并且与NVIDIA有深度合作关系的供应商。比如,台达电子、光宝科技、康舒科技、艾默生网络能源等,都是这一领域的头部玩家。此外,一些新兴的创业公司,如专注于HVDC技术的初创企业,也可能在VR Ultra时代获得巨大的市场机会。对于投资者而言,这是一个典型的“隐形冠军”赛道——表面看起来不起眼,实则利润丰厚、壁垒极高、增长确定性强。如果你错过了GPU的风口,那么电源组件可能是你下一个不容错过的投资标的。
当然,我们也必须看到其中的风险。首先是技术风险。800V HVDC技术虽然前景广阔,但目前仍处于早期发展阶段,存在兼容性、安全性、标准化等一系列问题。其次是供应链风险。高功率密度的电源组件对材料、工艺、测试的要求极高,任何一个环节出问题都可能导致整个系统崩溃。最后是市场竞争风险。随着市场规模的扩大,越来越多的厂商会涌入这一领域,价格战、专利纠纷等问题可能会随之而来。因此,投资者在布局时一定要选择那些拥有核心技术、稳定客户关系、良好现金流的龙头企业,避免盲目跟风。
总结一下,从GB200到VR Ultra,NVIDIA的AI服务器电源组件价值经历了从“基础保障”到“性能优化”再到“架构革命”的三次跃迁。每一次跃迁都伴随着GPU功耗的飙升、电源架构的重构、以及供应链的重塑。到2027年,这个市场的规模将达到80亿美元,成为AI硬件赛道中最耀眼的明珠之一。对于从业者而言,这是一个充满机遇的时代;对于投资者而言,这是一个值得长期布局的赛道。记住,真正的财富往往藏在那些看不见的地方——比如,一个小小的电源模块,可能就是你通往财务自由的钥匙。
【结尾彩蛋】
你以为这就完了?不,这只是开始。据内部消息,NVIDIA已经在秘密研发下一代“Rubin Ultra Plus”系列,计划将单柜功率提升至1.2兆瓦,采用更先进的碳化硅(SiC)功率器件和人工智能驱动的动态电源管理技术。到时候,电源组件的价值可能还会再翻一倍。