AI硬件已触物理极限,AGI因无视能量、成本、工程约束注定失败,中国务实落地模式将胜出。
Tim Dettmers是这位谷歌大脑早期TPU项目成员、k-bit量化推理奠基人、以“用物理现实打脸AGI幻想”闻名的AI硬件大神,在2025年12月10日发表了一篇题为《Why AGI Will Not Happen》的长文,直接把硅谷AGI泡沫戳穿了!
这位老哥可不是键盘侠,他三年前就精准预测了4-bit推理的极限,还亲手设计过千亿参数模型的推理架构,现在更是从芯片物理、能量守恒、经济扩散三大维度,系统性论证:所谓“人工通用智能”(AGI)根本就是空中楼阁,而“超级智能”更是彻头彻尾的幻想。
如果你还在为英伟达股价狂涨兴奋、以为AI马上就要接管世界,那你真的该冷静读完这篇深度拆解。
算力不是魔法,而是物理——被忽略的第一性原理
Dettmers开篇就亮出核心观点:计算是物理的。
这句话听起来平平无奇,但在硅谷AGI狂热圈里,这几乎是一记耳光。那些天天喊“指数增长”“无限智能”的人,根本没意识到:每一比特的数据移动、每一次矩阵乘法,都要消耗真实世界的能量、占据真实世界的硅片面积、克服真实世界的信号延迟。
芯片上的L1、L2、L3缓存用的明明是同一工艺,但速度却天差地别——因为物理距离越远,访问延迟越高。更关键的是,随着晶体管越来越小,计算单元成本暴跌,但内存墙(Memory Wall)反而越来越厚。如今一块AI芯片上,90%以上面积都用来堆内存,计算单元反而是“配角”。
所以英伟达动不动就吹“1000 PFLOPS”,但如果没有足够带宽喂数据,这些算力就是废铁。
Transformer架构之所以成功,不是因为它多“智能”,而是它在物理约束下做到了信息处理效率的近似最优——局部MLP计算+全局Attention聚合,这种设计天生就受制于芯片上电与热的物理极限。
人类大脑已是能量天花板,AI也快撞墙了
你可能觉得“AI能耗算什么,又不用吃饭”。
但Dettmers用人类进化史狠狠教育了我们:人类大脑占体重2%,却消耗20%的能量。女性怀孕时要同时供养两个大脑,若脑容量再大10%,母体根本无法提供足够营养——不是产道不够宽,是能量供不上!这就是自然选择划定的生物智能边界。(双胞胎呢?用人类大脑做类比可能牵强,因为我们不了解人类大脑)
而数字智能同样受制于能量密度。当前AI模型每提升10%性能,所需算力翻倍;再提升10%,算力再翻倍。线性进步,需要指数级资源投入。
物理世界没有免费午餐,芯片制程逼近1纳米,量子隧穿效应让晶体管漏电严重;HBM内存堆叠层数已到极限,再加层散热就崩;数据中心用电量即将超过中小国家……我们不是在接近AGI,而是在逼近算力宇宙的热寂边缘。
(越做越小肯定不行,越做越大难道不行吗?数据中心搬到太空已经训练出大模型了)
GPU神话已死,2018年就是性能拐点
最颠覆认知的部分来了——Dettmers断言:GPU性能已实质性停滞。
你以为H100比A100强,Blackwell比H100强,就代表算力还在飞升?错!2018年V100那代才是性价比巅峰。
之后所谓“进步”,全是靠“一次性特技”堆出来的:先搞FP16半精度,再塞Tensor Core专用单元,接着堆HBM高带宽内存,然后加TMA异步内存引擎,再压到INT8、INT4量化……这些招数全用完了!
他的k-bit量化论文早已证明,4-bit就是当前架构下效率极限。
再往下压,要么算力暴跌,要么显存暴涨,根本得不偿失。
英伟达现在玩的,无非是在物理牢笼里左右横跳。更致命的是,芯片级创新枯竭后,连机架级优化(比如KV缓存传输)也快到头了——Dettmers预判,2026-2027年,整个AI硬件将撞上物理天花板。
到时候,你砸再多钱,性能也纹丝不动。
中国模式完胜美国幻想:AGI不如“用起来”
美国AI圈沉迷“赢家通吃”逻辑:只要造出最强AGI,全世界都会跪着用。但中国走的是完全不同的路——不赌AGI,只赌落地。中国政策大力补贴AI应用,80岁老奶奶都在用AI买菜、问诊、写春联。因为中国人明白:AI的价值不在参数多大,而在能否提效降本。
一个能省下10%人力成本的客服机器人,比一个能写诗但耗电百万的“超级大脑”实用一万倍。反观美国,把宝全押在“超级智能自我进化”的玄学上,却忽视了最基础的经济扩散——软件行业本身就有收益递减魔咒,全球SaaS公司在中国集体溃败就是明证。
AI若只停留在代码生成、PPT美化,根本撑不起万亿市值。唯有像中国这样,把AI塞进工厂、农田、医院、社区,才能释放真实生产力。
(AGI如果一旦实现,是核弹出炉,你还在用一个个炸弹去爆破吗?核弹一处,所有应用工厂、农田、医院、社区一下子完全释放生产力,这种愿望虽然美好,但是不是不可行!)
机器人?别闹了!物理世界数据贵到离谱
AGI信徒常说:“等机器人配上大模型,就能干一切活!”
Dettmers冷笑:醒醒吧!工厂里的机械臂早就是“黑灯工厂”了,但那些没自动化的环节,比如给T恤缝袖子,不是技术不行,是根本不划算!收集1小时真实世界机器人操作数据,成本够训练100个语言模型。
而且物理世界充满噪声、意外、非结构化场景——掉在地上的袜子千奇百怪,但“袜子”这个词在文本里就一个写法。数据获取成本差异万倍,注定了机器人学习曲线比语言模型平缓得多。
就算未来有家用机器人,你觉得它花20分钟把衣服叠出褶皱,比你亲手2分钟叠好更香?
Dettmers直言:机器人最大的问题不是技术,是经济价值太低。AGI若不能下地干活,就只是个高级聊天机器人,何谈“通用”?
(人形机器人概念与AGI类似,是核弹级别出炉,不是普通工业机器人一个个根据场景Context定制的,这种推广速度加上人力介入,漫长而缓慢,如果我们靠堆机器数量能一下提速,这个愿望只有认同的资本才愿意去赌,资本游戏就是文字游戏,资本与文字区别就是资本是指向现实的符号,而文字真的只是纯符号,纯形式主义,纯假模假样,玩弄文字的人大有人在,但是玩弄资本的人大概只有上帝一个!)
超级智能是哲学毒药,自我进化纯属幻想
最后,Dettmers对“超级智能”发起终极审判。
牛津哲学家们幻想:一旦AI达到人类水平,就能疯狂自我改进,引发智能爆炸。但物理世界根本不认这套!就算真有超级智能,它想优化HBM内存,也得等台积电建新厂、ASML造新光刻机、工程师熬无数个通宵——这些全是物理过程,无法靠“思考”加速。
Transformer架构已逼近信息处理效率极限,推理部署也成了标准化工程问题。
超级智能最多“填坑”(比如优化某段代码),但绝不可能“破界”。更讽刺的是,那些鼓吹超级智能的人,自己都在用英伟达的GPU——而Dettmers刚证明:GPU已无进步空间。这就像指望永动机造出永动机,纯属循环论证。
(算力已经到极限,那靠算法,两条腿走路)
前沿大厂的末日警报:开源社区正在偷家
别以为只有哲学层面的批判,Dettmers还给OpenAI、Anthropic这些烧钱巨头敲响丧钟。
现在大模型推理效率依赖“规模效应”:必须同时服务百万用户,才能摊薄KV缓存成本。但一旦vLLM、SGLang等开源推理框架突破小规模部署瓶颈,任何团队都能用3000亿参数模型达到OpenAI级效率。
更可怕的是,中国公司如月之暗面(Moonshot AI)、百川(Baichuan)已证明:创新比规模更重要。
Kimi的推理能力吊打Claude 4.5,却只用1/10算力。
如果他们转投华为昇腾芯片(性能足够,成本更低),美国AI霸权一夜崩塌。前沿大厂押注的“算力护城河”,正在被软件创新和开源生态悄悄填平。
(美国人总是用假想敌训斥自己的孩子,别人家孩子如何,其实两个上下文环境如此不同,一个在庐山里徒步的人却用在华山徒步经验给同行制造焦虑,这种垃圾信息太多!文字游戏被他们玩弄到不只是指鹿为马,而是指着地球上鹿,断定是火星上的马,这离谱他妈给离谱开门,离谱到家了)
破除玄学,回归现实:AI的未来在菜市场不在实验室
Tim Dettmers的终极结论振聋发聩:AGI永远不会以当前形式出现,因为它无视物理、经济、工程的三重枷锁。
真正的AI革命,不在斯坦福实验室的白板上,而在义乌小商品市场的AI客服、寿光蔬菜大棚的智能灌溉、东莞工厂的质检机器人里。
中国模式之所以高明,就是把AI当成“电”一样的基础设施——没人会问“电什么时候达到通用智能”,大家只关心“这台机器省不省电”。当美国还在为“意识上传”“数字永生”吵翻天时,中国大妈已经用AI把广场舞BGM调到最嗨。(中国大妈跳舞音乐扰民,为啥用没有边界感一群人去说服有边界感的人群?)
或许,这才是技术普惠的真正含义。 (技术普惠有千万条,条条大路通罗马)
作者背景:
Tim Dettmers是AI硬件领域公认的顶尖专家,曾任职于谷歌大脑TPU团队,其关于低比特量化(k-bit)的论文是行业里程碑。他长期批判AI圈脱离物理现实的浮夸风气,以“用晶体管说话”著称,被开发者誉为“AI界的摩尔定律守门人”。