英伟达发布Rubin平台,通过六芯片极端协同设计,实现推理成本降90%、MoE训练GPU需求减75%、能效提升5倍,并首次引入机架级机密计算与AI原生存储,2026年下半年全面商用,全球科技巨头集体押注。
就在CES 2026现场,英伟达正式发布了下一代AI超算平台——Rubin!这不是简单的芯片升级,而是一场从底层硬件到顶层软件、从训练到推理、从安全到能效的全栈革命。
整个平台由六颗全新芯片组成:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网交换机,全部采用“极端协同设计”(Extreme Codesign)理念,实现了前所未有的性能飞跃。
用英伟达创始人兼CEO黄仁勋的话说:“Rubin来得正是时候——AI对计算的需求,无论训练还是推理,都正在指数级爆炸。而Rubin,将把我们推向AI的下一个前沿。”
推理成本直降90%!MoE模型训练GPU用量砍掉75%
最炸裂的数据来了:相比上一代Blackwell平台,Rubin平台可将AI推理的每token成本降低高达10倍!
这意味着什么?意味着之前需要100万美元跑一次的推理任务,现在可能只要10万。更狠的是,针对当前最火的混合专家模型(MoE),Rubin仅需Blackwell四分之一数量的GPU就能完成训练——硬件投入直接砍掉75%!这对所有AI公司都是天大的好消息,尤其是那些正在为高昂算力账单发愁的初创企业。
以前只有巨头玩得起的大模型,现在中小团队也能轻松参与了。这不仅是技术进步,更是AI民主化的关键一步。
马斯克狂赞:Rubin就是AI的火箭发动机!
消息一出,科技圈大佬们集体沸腾。
埃隆·马斯克直接在社交平台发帖:“ NVIDIA Rubin 将成为AI的火箭发动机!如果你想大规模训练和部署前沿模型,这就是你必须用的基础设施——它将向全世界证明,英伟达仍是黄金标准!
”OpenAI CEO萨姆·阿尔特曼也强调:“智能随算力扩展。Rubin平台让我们能持续推动这一进程,让先进智能惠及每个人。”
Anthropic CEO达里奥·阿莫迪则指出,Rubin的效率提升将直接带来更长的上下文记忆、更强的推理能力和更可靠的输出,这对他们正在进行的AI安全研究至关重要。
以天文学家之名,致敬探索宇宙的极限精神
Rubin平台的名字,源自美国传奇天文学家薇拉·弗洛伦斯·库珀·鲁宾(Vera Florence Cooper Rubin)。她通过观测星系旋转曲线,首次提供了暗物质存在的坚实证据,彻底改变了人类对宇宙结构的认知。
英伟达以此命名,显然在暗示:Rubin平台也将像鲁宾的发现一样,颠覆我们对AI计算极限的理解。整个平台包含两个核心系统:Vera Rubin NVL72 机架级解决方案(整合72颗Rubin GPU + 36颗Vera CPU)和 HGX Rubin NVL8 服务器板(连接8颗GPU),分别面向超大规模AI工厂和通用AI平台,真正做到“不同工作负载,不同形态”。
六大芯片协同作战,NVLink 6带宽碾压整个互联网!
Rubin的“极端协同设计”不是空话。第六代NVLink互连技术,单颗GPU带宽高达3.6TB/s,而整个Vera Rubin NVL72机架的总带宽竟达260TB/s——这比当前全球互联网的总带宽还要高!
更厉害的是,它内置了网络内计算(in-network compute)能力,能加速集体通信操作,并加入全新服务性与弹性功能。
这意味着成千上万个GPU组成的超算集群,可以像一个超级大脑一样高效协同,几乎没有通信瓶颈。再加上ConnectX-9 SuperNIC的超高吞吐和BlueField-4 DPU的卸载能力,整个系统真正实现了“算、存、网”三位一体。
Vera CPU登场!专为AI智能体推理打造的能效怪兽
Rubin平台还首次推出了英伟达自研CPU——Vera!这可不是普通CPU,而是专为“智能体AI”(Agentic AI)的多步推理任务量身打造。它内置88个英伟达自研Olympus核心,完全兼容Armv9.2架构,并通过超高速NVLink-C2C互连与GPU无缝通信。
Vera被称作“全球最大AI工厂中最能效的CPU”,不仅能处理传统数据中心负载,更能支撑AI智能体在复杂任务中持续思考、决策和行动。未来,AI不再只是被动响应,而是主动规划、调用工具、记忆上下文——而Vera CPU,就是这一切的“中央调度官”。
第三代机密计算:全球首个机架级全栈加密AI平台
安全,是企业部署大模型的最大顾虑。Rubin平台首次在机架级系统中引入第三代NVIDIA机密计算(Confidential Computing),可对CPU、GPU和NVLink全域数据进行硬件级加密保护。这意味着,从模型权重、训练数据到推理输入,全程都在可信执行环境中运行,即使云服务商也无法窥探。
对于拥有核心知识产权的金融机构、医药公司或国防机构来说,这等于给了他们一把“绝对安全的钥匙”,终于可以放心把最敏感的AI工作负载交给公有云。
RAS引擎升级:故障自愈+18倍快拆,AI工厂永不宕机
AI训练动辄持续数周,任何硬件故障都可能导致前功尽弃。Rubin平台搭载第二代RAS引擎(可靠性、可用性、可服务性),覆盖GPU、CPU和NVLink全栈,支持实时健康监测、故障容错和预测性维护。最惊艳的是其模块化、无缆线托盘设计——相比Blackwell,整机装配和维修速度提升高达18倍!
想象一下,一个GPU出问题,工程师不用拆整个机柜,只需像换硬盘一样抽出故障模块,5分钟完成更换。这对追求7×24小时稳定运行的AI超级工厂来说,简直是运维革命。
AI原生存储革命:BlueField-4让智能体“记住”一切
未来AI智能体要完成复杂任务,必须具备长期记忆能力——比如记住用户偏好、对话历史、中间推理结果等。Rubin平台因此推出全新的“推理上下文内存存储平台”,由BlueField-4 DPU驱动。它能高效共享和复用键值缓存(Key-Value Cache)数据,大幅提升多轮对话、多用户服务的响应速度和吞吐量。
更关键的是,它支持“可预测、高能效”的上下文扩展,让智能体在处理百万token长上下文时依然流畅。BlueField-4还引入ASTRA(高级安全可信资源架构),为多租户AI环境提供单一可信控制点,兼顾安全与性能。
以太网光子革命:Spectrum X让AI数据中心跨城如一体
很多人以为AI集群只靠InfiniBand,但Rubin证明:以太网也能打!Spectrum-6是以太网专为AI优化的新一代架构,采用200G SerDes电路、共封装光学(co-packaged optics)和AI专用网络拓扑。在此基础上,Spectrum-X以太网光子交换系统实现三大突破:可靠性提升10倍、应用在线时间延长5倍、能效提升5倍——每瓦性能达到新高。
更神奇的是Spectrum-XGS技术,能让相距数百公里甚至更远的数据中心“融为一体”,构成一个逻辑上的超大规模AI工厂。这意味着,未来AI训练不再受单个园区电力与空间限制,真正走向“云原生超级计算”。
全球巨头集体站台,2026下半年全面商用
Rubin不是PPT产品,而是已经进入全量生产阶段!2026年下半年,AWS、谷歌云、微软Azure、甲骨文云(OCI)以及CoreWeave、Lambda、Nebius、Nscale等NVIDIA云合作伙伴将率先提供Rubin实例。微软更宣布将在其下一代“Fairwater AI超级工厂”中部署Vera Rubin NVL72系统,打造全球最大AI基础设施。戴尔、HPE、联想、超微等服务器厂商也将推出基于Rubin的整机产品。
Meta扎克伯格直言:“Rubin平台带来的性能与效率飞跃,正是我们将最先进模型带给数十亿用户所需要的。”
软件生态同步发力,Red Hat联手打造企业级AI栈
硬件再强,也需软件配合。为此,英伟达与红帽(Red Hat)宣布深化合作,将为企业提供完整优化的Rubin AI软件栈,包括红帽企业Linux、OpenShift容器平台和Red Hat AI。
这套方案已被全球绝大多数财富500强企业采用,意味着Rubin将无缝融入现有IT架构,加速从实验到生产的转化。此外,AIC、DDN、NetApp、Pure Storage、VAST Data等数十家存储与基础设施伙伴也在为Rubin设计新一代平台,确保数据“喂得饱、存得稳、传得快”。