CES 2026黄仁勋发布鲁宾超算、会思考自动驾驶、宇宙仿真平台  


英伟达发布鲁宾AI超算,性能5倍提升;阿尔帕梅奥自动驾驶AI开源;Cosmos合成数据平台让机器人虚拟练级;AI代理可管邮件画图;EDA工业全面AI化。  

黄仁勋CES 2026燃爆全场:英伟达全栈AI帝国正式登基  

2026年CES第一天,拉斯维加斯会议中心座无虚席,三千人挤在主会场,两千人围在庭院直播墙前,还有上千人堵在四楼展厅——只为听英伟达创始人兼CEO黄仁勋亲自宣布:“AI时代不是未来,是现在,而我们现在就站在它的中心。”

这是一整套从芯片、操作系统、仿真平台到机器人终端的垂直整合宣言。黄仁勋说,过去十年我们花掉近10万亿美元构建的传统IT架构,正在被AI全面“现代化”。

这是从地基到屋顶的彻底重建。每一层都要重写:底层是算力芯片,中间是AI模型和操作系统,上层是能自主推理的智能体(Agent),而用户界面不再是Excel表格或命令行,而是像和人聊天一样自然的对话式交互。这背后是每年数百亿美金的风投资本、数万亿美元的企业研发投入正在集体转向AI——钱从哪儿来?就从这波“AI现代化”的浪潮里来。  

  

鲁宾超算横空出世:六芯片一体,3360亿晶体管,性能暴增5倍  

如果说英伟达过去是“显卡厂”,那从2026年起,它就是“AI基建帝国”。CES上最硬核的发布,莫过于“鲁宾”(Rubin)AI超级计算机平台。这玩意儿不是普通服务器,而是一整套集成六个定制芯片的计算系统,包括一颗名为“薇拉”(Vera)的自研CPU——88个核心、支持176线程,采用空间多线程(Spatial Multi-Threading)技术,确保每个线程都能跑满性能,同时功耗控制极佳,在同等功耗下性能是全球最先进CPU的两倍。

更恐怖的是鲁宾GPU,晶体管数量高达3360亿,浮点性能达上一代Blackwell的五倍,但晶体管数量仅增加1.6倍——这意味着英伟达靠“极限协同设计”(Extreme Co-Design)硬生生榨干了摩尔定律最后的红利。

整个鲁宾计算节点采用100%液冷,进水温度高达45°C,无需外部冷水机,直接省下全球数据中心6%的电力。一个鲁宾机柜重达两吨半(因为没放掉冷却水),内部包含72颗鲁宾芯片、18个计算托盘、9个MVLink 6交换模块,总晶体管数220万亿,算力高达100 PetaFLOPS——这已经不是计算机,而是“AI工厂”的核心引擎。  

  

世界首个“会思考”的自动驾驶AI:阿尔帕梅奥开源引爆行业  

黄仁勋现场演示了一段在旧金山街头行驶的自动驾驶视频,车辆不仅识别红绿灯和行人,还实时“说出”自己的决策逻辑:“前方施工,需变道;右侧电动车可能突然窜出,保持安全距离。”

这套系统名为“阿尔帕梅奥”(Alpameo),是全球首个具备“推理能力”的端到端自动驾驶AI。它从摄像头输入直接输出方向盘、油门、刹车指令,中间没有任何规则引擎或人工干预。

更惊人的是,英伟达宣布将其完全开源——不仅开放模型,连训练数据也一并公开。黄仁勋强调:“只有开源数据,你才能真正信任模型是如何做决定的。”这套系统在梅赛德斯-奔驰CLA车型上已通过NCAP全球最严安全认证,成为“史上唯一从芯片到代码全链路安全认证”的自动驾驶方案。它甚至配备了双栈冗余:主系统用AI推理,副系统用传统规则保障——一旦AI不确定,立刻切换回“保守模式”。

这种“AI+安全兜底”的架构,或许才是L4自动驾驶落地的关键。  

  

宇宙级仿真平台Cosmos:把算力变成数据,让机器人在虚拟世界练级  

物理AI最大的瓶颈是什么?真实世界数据太少、太贵、太危险。

英伟达的答案是:用合成数据+物理仿真。其全新“宇宙”(Cosmos)平台,是一个面向物理世界的开源基础模型,预训练于互联网级视频、真实驾驶日志和3D仿真数据。它能从单张图片生成符合物理规律的动态视频,比如给一个路口静态图,Cosmos能模拟出暴雨、大雾、行人乱穿、自行车逆行等千种边缘场景。

更厉害的是,它支持“闭环交互仿真”——你让虚拟机器人推一个箱子,系统会根据质量、摩擦力、重力实时反馈运动轨迹,机器人再根据反馈调整动作,如此反复学习。黄仁勋说:“ChatGPT时刻即将在物理AI领域重演。”目前Cosmos已被全球数百万开发者下载,用于训练自动驾驶、人形机器人甚至手术机械臂。

英伟达自家的自动驾驶系统,90%的训练里程其实是在Cosmos里跑出来的——相当于在电脑里“开”了上万亿英里,成本几乎为零。  

  

从R2-D2到波士顿动力:英伟达打造机器人“全家桶”生态  

CES现场,一群《星球大战》里的BD-X机器人小跑上台,和去年一样萌,但今年完全不同:它们完全自主运行,靠英伟达Jetson芯片和Cosmos模型实时决策。更震撼的是,波士顿动力、LG、卡特彼勒、Franka、Agility等顶级机器人公司集体站台,宣布全线产品搭载英伟达方案。

LG的新款家庭服务机器人能送餐到客厅,卡特彼勒的巨型工程机器人能在矿山自主作业,而英伟达自研的“格鲁特”(Groot)人形机器人系统,则统一了关节控制、移动导航、任务规划三大模块。

黄仁勋强调:“未来所有机器人,无论大小,都需要三台计算机:一台训练模型,一台部署推理,一台运行仿真。”而英伟达的Isaac Sim和Isaac Lab,正是这第三台“仿真计算机”的核心。任何人想造机器人,只要在Omniverse里搭建虚拟场景,用Cosmos生成数据,再部署到Jetson边缘设备——一套“机器人开发全家桶”,彻底降低行业门槛。  

  

芯片设计也要AI化:英伟达联手铿腾、新思、西门子重塑工业根基  

很多人以为AI只是上层应用,但黄仁勋指出:“最该被AI革命的,其实是造AI芯片的行业本身。”英伟达已与全球三大EDA(电子设计自动化)巨头深度合作:铿腾(Cadence)和新思(Synopsys)将全面集成CUDA X、物理AI和Neotron模型,让芯片设计从“人工布线”升级为“AI自动生成”。西门子则把Omniverse、AI代理和Neotron深度嵌入其CAE(计算机辅助工程)和数字孪生平台,未来芯片工厂、制药产线、汽车装配线都将变成“巨型机器人”。

黄仁勋举了个例子:未来的芯片,从逻辑设计、物理布局、到制造良率预测,全由AI代理完成;而制造它的工厂,本身就是一个由AI调度的自动化系统。这意味着,AI不仅造产品,还要造“造产品的机器”——这正是英伟达从消费电子反哺工业母机的战略野心。  

  

AI代理时代降临:你的私人助理能管邮件、看家、还能画建筑图  

黄仁勋现场演示了一个“人人可建”的AI代理:他用Brev平台把自家DGX Spark小型服务器变成私有云,接入前沿模型API,再加一个本地运行的开源模型保护隐私。这个叫“里奇”(Richi)的小机器人,能管日程、回邮件、看家护院,甚至能根据草图生成建筑渲染图和漫游视频。

关键在于“意图路由”(Intent-Based Model Router)——用户说“给我发邮件”,请求就走本地模型;说“解释量子纠缠”,就调用云端大模型。整个系统还支持多模态交互:语音用11 Labs,视觉用Hugging Face,动作控制用工具调用(Tool Call)。

黄仁勋感叹:“几年前这简直是天方夜谭,今天却 trivial(微不足道)。”而这套架构,正是ServiceNow、Snowflake、CrowdStrike等企业平台正在集成的下一代AI界面——未来你不再点按钮,而是对系统说:“帮我找出上季度销量下滑的原因,并生成PPT。”  

  

算力即正义:英伟达如何用“极限协同设计”打破摩尔定律天花板  

面对AI模型每年10倍增长的算力需求,英伟达做了一件疯狂的事:一次性重做了六颗芯片——薇拉CPU、鲁宾GPU、ConnectX9网卡、BlueField-4 DPU、MVLink 6交换芯片、Spectrum-X光子交换机。这违反了行业“每代只改一两颗芯片”的惯例,但黄仁勋说:“不这么做,根本追不上AI爆炸的速度。”其中最黑科技的是“MVF FP4张量核心”——它不是固定精度的4比特浮点单元,而是一个能动态调整精度的智能处理器。

在Transformer推理中,某些层可降为4比特加速,关键层则自动升回高精度,全程硬件自适应,软件根本来不及干预。正是这种“芯片级AI”,让鲁宾在晶体管仅增1.6倍的情况下,实现5倍性能提升。

再加上BlueField-4为KV缓存(AI的临时记忆)提供每GPU 16TB的高速上下文内存,彻底解决“长对话内存爆炸”难题——这才是英伟达真正的护城河:不是单点技术,而是全栈协同的系统工程。  

  



极客辣评

芯片AI设计可能才是英伟达重点,新Rubin在延迟、吞吐量等重大技术指标在不同所有开源大模型上的技术测试结果,这些才应该是重点,但是黄教主重点在为整个AI做代言,这也许在新事物初期必备的普及宣传。