英伟达创始人兼CEO黄仁勋(Jensen Huang)在多个场合密集发声,信息量爆炸,几乎把未来五到十年AI世界的底层逻辑全讲透了。如果你还在用“大模型=聊天机器人”的思维看AI,那真的要赶紧更新认知了。
新的推理方式与三大“规模定律Scaling Laws”
过去AI推理是一问一答,模型直接生成结果。但未来的推理更像“思考过程”,AI先想一想,再查资料,再继续思考,最后才回答。这意味着推理也能像训练一样遵循规模定律:训练规模、思考时长、后训练能力,三者叠加带来更强智能。
这也是为什么现在的智能体系统,不再是单一模型,而是多个模型并行运行,有的负责思考,有的负责查资料,有的调用工具,最终形成更复杂、更可靠的智能。
这种“思考式推理”带来了三大新的“缩放定律”(Scaling Laws):除了传统的模型参数规模、训练数据量,现在还要加上“思考时间”——你让AI多想一会儿,答案质量就指数级提升。这意味着,未来的AI服务不是“快就好”,而是“深才强”。而支撑这种深度思考的,正是英伟达提供的强大算力底座。
算力需求根本不存在“过剩”,全球正面临严重短缺!
很多人担心GPU会不会产能过剩?黄仁勋直接打脸:“现在全世界缺的不是GPU,而是算力!只要有订单,我们就能造。如果需要翻倍,我们就翻倍!” 他强调,AI正在把通用计算全面转向加速计算,这个过程远未完成。只要还有CPU在干AI的活,GPU的需求就只会越来越旺。
更关键的是——电力,才是未来真正的货币!
黄仁勋直言:“英伟达的收入几乎和功耗直接挂钩。客户拿到两吉瓦电力,当然要选每瓦性能最高的芯片。哪怕对手的ASIC免费送你,但如果你的每瓦性能只有我们的1/30,那你的机会成本高到无法承受!”
所以,性能每瓦(perf-per-watt)不是技术指标,而是经济命脉。谁能在同样电力下产出更多token,谁就掌控未来AI经济的定价权。
芯片生态的护城河,不是靠单一硬件,而是全栈协同!
有人问:谷歌有TPU,亚马逊有Trainium,苹果有自研芯片,英伟达会不会被取代?黄仁勋的回答非常犀利。
他说,芯片分三类:通用架构(如x86、ARM、NVIDIA GPU)、定制ASIC、以及客户自研芯片(COT,Customer-Owned Tooling)。
ASIC的问题在于灵活性不足:像苹果手机ASIC芯片之所以能自研,是因为年出货量上亿,摊薄成本。苹果手机ASIC芯片适合超大规模、固定场景。
AI算法天天在变,算法、模型、架构每天都在变,只有GPU这种架构能不断适应,在AI这种快速迭代的领域,GPU才是唯一的“主力战马”,谷歌的TPU已迭代到第7代。你不可能用固定ASIC应对动态演进的AI workload。
而英伟达的真正护城河,是“极端协同设计”(Extreme Co-Design):从芯片、系统、软件、网络、数据中心,全部同步迭代。比如从Hopper到Blackwell,性能提升30倍,靠的不是单点突破,而是NVLink、内存、互联、编译器、库函数全栈优化。2025年出Vera Rubin,2027年推Ultra,2028年上Fineman——每一代都是系统级飞跃。这种能力,不是砸钱就能复制的,而是十几年生态积累的结果。
AI基础设施正在成为国家主权战略,全球都在建“AI电厂”!
黄仁勋提出一个震撼观点:“每个国家都需要自己的AI基础设施,就像需要电网、通信网一样。” 他支持“主权AI”(Sovereign AI)理念,认为各国必须掌握自己的算力、数据和模型。这不仅是技术问题,更是国家安全和经济独立的基石。
至于中国市场?黄仁勋态度微妙但坚定:“中国对我们极其重要,任何忽视中国市场的人都在自欺欺人。虽然当前出口受限,但我们的财务指引已不包含中国收入——即便如此,增长依然强劲。我相信,从长远看,让英伟达服务中国市场,符合双方根本利益。
未来五年,AI将从云端走向实体——你的私人R2-D2来了!
最让人热血沸腾的,是黄仁勋对未来的描绘:“未来五年,AI与机电一体化(Mechatronics)将深度融合。你会拥有自己的AI代理,它不仅在云端,还会‘具身化/数字分身’——在你的车里、家里、机器人里。每个人都有专属GPU,80亿人就有80亿个个性化模型。”
每个人都可能有属于自己的GPU和专属AI模型,它存在于云端,也嵌入在汽车、家用机器人里,成为真正的“第二自我”。
他还预告了一个重磅方向:加速数据处理!目前全球90%的数据分析(如SQL、Databricks、Snowflake)还在用CPU。但很快,这些工作负载将全面转向GPU加速。这不仅是技术升级,更是万亿级新市场的开启——因为数据处理本身就是AI的燃料。
全球大部分计算力其实花在数据处理和SQL查询上,而这些现在仍在CPU上跑。未来英伟达要把这部分市场搬到GPU和AI加速平台上。意味着像Databricks、Snowflake、Oracle SQL这种传统数据库负载,也将进入AI算力工厂。这是一个堪比第二次AI浪潮的万亿级市场。
最后,黄仁勋给出了一个惊人的TAM(总可服务市场)测算:“假设全球GDP中有10万亿美元由AI增强,其中一半需要AI基础设施支撑,那每年全球AI资本支出就可能达到5万亿美元。而英伟达,就是这个‘AI工厂’的建造者。” 他甚至预言:“英伟达很可能成为全球第一家市值10万亿美元的公司。”
产品节奏:鲁宾、超体、费曼三连击
黄仁勋直接剧透:
* 2025下半年 → Vera Rubin(鲁宾)
* 2027 → Ultra(超体)
* 2028 → Feynman(费曼)
这不是单一芯片的升级,而是全栈协同设计:算法、模型、系统、芯片同时革新。Hopper到Blackwell已实现30倍提升,未来每一代都可能带来指数级突破。英伟达的护城河,不仅是芯片,而是全系统级别的极致共设计。
OpenAI“星门”合作与投资机会
黄仁勋直言:OpenAI极有可能成为下一个多万亿美元级的超级公司。他们正在自建AI基础设施,从芯片、软件、系统到AI工厂全链路打造。英伟达与OpenAI的合作不仅是供应商关系,更是深度共建。并且,他们还开放了投资机会,虽然不是必须,但黄仁勋形容这是“最聪明的投资之一”。换句话说,这是AI史上最接近“印钞机”的战略合作。
算力需求:短缺是常态而非过剩
很多人担心GPU过剩?黄仁勋说完全相反。今天的短缺不是因为产能不够,而是因为全球还没把通用计算彻底转向加速计算和AI。只要还没完成这场转型,需求就是无限的。英伟达的逻辑很简单:客户下单,就能翻倍扩产。供给不是瓶颈,转型才是关键。