第一节:AI到底是不是泡沫?黄仁勲亲口回应,答案令人震撼
最近,越来越多的人开始拿AI热潮和上世纪末的“互联网泡沫”做对比,说什么“股价涨太猛了”、“技术落地不明确”、“全是概念炒作”。听起来好像很有道理,是不是?但今天我要告诉你,这些说法在英伟达CEO黄仁勋眼里,根本站不住脚。就在2025年11月11日,《金融时报》“现代AI的思想者”系列专访中,黄仁勋面对记者直接抛出的灵魂拷问,毫不回避,给出了极为硬核的回应。
他说:“在互联网泡沫那个年代,铺设的光纤绝大部分都是‘黑暗’的——也就是没人用。而今天,你几乎找不到一块闲置的GPU,全都在发光、全都在工作。”这句话什么意思?翻译过来就是:AI不是吹出来的,是真正在烧电、真正在处理任务、真正在给企业带来价值。
大家可能不太理解“黑暗光纤”这个概念。简单点说,在1990年代末,全世界疯狂建设互联网基础设施,运营商预判未来数据流量会爆炸式增长,于是提前在全国各地挖沟埋光纤。结果呢?需求没跟上,埋下去的光纤90%以上根本没人用,成了成本黑洞,最终导致无数公司倒闭,投资人血本无归。这叫“虚假繁荣”。
但今天呢?黄仁勋说,每一块GPU都在“亮着”——也就是满负荷运行。全球的云计算巨头、AI初创公司、金融、医疗、制造业,全都在抢GPU算力。这不是炒作,这是实打实的算力饥渴。
第二节:AI的真实需求,远比你想象的深得多
很多人以为AI就是ChatGPT聊天、Midjourney画图,顶多再加上几个短视频里的AI滤镜。但黄仁勋提醒我们:这仅仅是冰山一角。真正的AI,已经进化到能“自主思考并通过研究实现自我校准”的阶段。什么意思?就是AI不再只是被动回应指令,而是能像科学家一样,提出假设、验证逻辑、修正错误、生成新知识。
这种能力,目前只有少数头部实验室和企业具备,普通用户还没接触到。但正因为如此,AI的潜力才刚刚起步。黄仁勋强调,随着AI能力的提升,它处理的任务复杂度指数级上升,所需的计算资源也同步爆炸。比如,训练一个现代大模型,可能需要上万张H100 GPU连续跑几个月;而推理阶段,为了保证响应速度和准确性,也需要持续调用大量算力。
更关键的是,AI的使用频率正在飙升。过去一年,全球AI查询量增长超过300%。企业不再只是“试试看”,而是把AI嵌入到核心业务流中——客服、风控、供应链预测、药物研发……每一个环节都在产生海量计算需求。这种需求不是短期投机,而是长期结构性转变。
第三节:算力即生产力,GPU就是新时代的“电力”
黄仁勋在访谈中反复强调一个观点:计算能力现在就是生产力。就像工业时代看钢铁产量、信息时代看带宽,AI时代看的就是算力规模。而GPU,就是这个时代的“发电厂”。
过去几年,英伟达的股价翻了十几倍,很多人骂它“泡沫”。但黄仁勋反问:如果需求是假的,为什么全球所有云服务商——微软、谷歌、亚马逊、Meta——都在疯狂采购H100、B100、Blackwell架构芯片?为什么台积电的CoWoS先进封装产能排到2027年?为什么各国政府纷纷出台政策补贴本土AI芯片制造?
答案很简单:因为算力不够用。不是“可能不够”,是“已经严重短缺”。据行业测算,2025年全球AI算力缺口已超过40%,而这一缺口还在扩大。在这种背景下,GPU的“点亮率”接近100%,根本不存在“黑暗产能”。
对比互联网泡沫时期,那时很多公司连商业模式都没有,就靠一个“.com”域名融资上亿。而今天的AI公司,无论是OpenAI、Anthropic,还是中国的大模型厂商,背后都有真实客户、真实收入、真实的技术壁垒。它们不是靠PPT讲故事,而是靠GPU集群跑出结果。
第四节:AI基建狂潮背后的隐忧:能源与供应链
当然,黄仁勋也承认,AI的爆发式增长并非没有挑战。其中最严峻的两个问题就是能源消耗和供应链瓶颈。
一块Blackwell GPU的功耗可能超过1000瓦,一个万卡AI集群的总功耗堪比一座小型城市。这不仅对电网造成压力,也推高了数据中心的PUE(能源使用效率)。正因如此,液冷技术、核能供电、模块化数据中心等解决方案正在加速落地。而作为前阿里云基础设施架构师,我可以负责任地说,未来谁能在单位能耗下提供更高算力,谁就掌握了AI时代的制高点。
另一方面,先进芯片的制造极度依赖台积电、三星等少数代工厂。而AI芯片所需的CoWoS封装、HBM高带宽内存、高速互连技术,全球产能极其有限。英伟达虽然订单爆满,但也得排队等产能。这正是为什么英特尔、AMD、Marvell、Broadcom等公司都在拼命加码AI芯片,试图分一杯羹。
但即便如此,黄仁勋依然坚信:需求会倒逼创新,瓶颈终将被突破。历史上每一次技术革命都伴随着基础设施的重构,AI也不例外。
第五节:为什么“泡沫论”是一种危险的误判?
很多人喜欢用历史类比来警示风险,这没错。但把AI简单等同于“.com泡沫”,是一种懒惰且危险的误判。两者在本质上完全不同。
互联网泡沫的核心问题在于:基础设施超前,应用滞后,商业模式为空。而AI恰恰相反:应用爆发在前,基础设施拼命追赶;商业模式清晰(降本增效、创造新收入);技术迭代飞快。
更重要的是,AI具有极强的“正反馈”属性。用得越多,模型越聪明;模型越聪明,用的人越多。这种飞轮效应一旦启动,就很难停下来。反观当年的“.com”公司,很多连用户留存都做不到,更别说形成数据闭环。
黄仁勋说:“我们不是在建造没人用的光纤,我们是在点亮每一颗GPU。”这句话背后,是对整个AI生态的信任——开发者、企业、政府、科研机构,都在真实投入、真实使用、真实受益。这不是投机,这是生产力革命。
第六节:AI的真正潜力,普通人还没看到
你现在用的ChatGPT,只是“玩具级”应用。真正的AI,将在制造业实现预测性维护,在生物医药发现新靶点,在能源领域优化电网调度,在金融系统实时识别欺诈。这些场景,每一个都需要海量算力支撑。
而全球算力分布极不均衡。美国、中国、欧盟正在争夺AI基础设施主导权。谁拥有更多GPU集群、更高效的数据中心、更智能的调度软件,谁就能在下一轮科技竞争中占据先机。
所以,别问问自己:我的行业如何接入AI?我的企业有没有算力战略?我的技术栈能否支撑未来的AI工作负载?
因为历史不会重复,但会押韵。这一次,我们不是在埋没人用的光纤,而是在点燃推动人类文明前进的算力引擎。