AI烧钱凸显认知分歧:资本与科学哪个更重要?

当前AI扩张狂潮正因人才流失、短视激励与资本过热,反而阻碍AGI实现。科学与市场严重背离,亟需回归理性探索,避免陷入虚假繁荣陷阱。

AI巨头狂砸千亿,却在亲手扼杀通用人工智能?科学与资本的惊天背离!

AGI就是能像人一样思考、学习、创造的“通用人工智能”,这玩意儿一旦实现,可能比工业革命、互联网诞生还要震撼。

现在全球最顶尖的资本科技,正在用一种看似疯狂、实则危险的方式“推进”它——狂砸钱、堆算力、抢人才,结果呢?可能反而把AGI给“拖死”了!

先说一个让你脊背发凉的观点:当前这场席卷全球的AI大扩张浪潮,极有可能在未来10到20年内,大幅降低我们实现AGI的概率。

不是我危言耸听,这是多位业内顶级专家和资深研究员反复论证后得出的结论。他们不是在唱衰,而是在发出预警。

为什么?因为现在的AI发展路径,已经从“探索未知”变成了“重复造轮子”,从“鼓励颠覆”变成了“追求稳定”。这就像一群赛车手,本来应该去挑战新赛道、研发新引擎,结果全都挤在一条直道上,比谁油门踩得更猛、谁的车更重。短期看是热闹非凡,长期看,可能连终点线都摸不到。

第一个致命伤,就是人才断层。
你以为各大科技公司都在疯狂招博士、搞研发?错!它们其实在“吸干”学术界的血液。那些刚拿到博士学位、充满奇思妙想的年轻人,被高薪挖走,进了大厂之后,立刻被塞进流水线式的项目组,每天的任务就是优化模型参数、提升0.1%的准确率。

这不是科研,这是工程。(当然,工程并不比科研差,大模型核心Transformer也是诞生在工程界谷歌:图灵奖该给LSTM之父还是谷歌Transformer?

更可怕的是,这些公司的薪酬包设计得非常巧妙,明面上是“高薪留才”,实际上却是“高薪锁才”。你要是想继续读博、做基础研究?对不起,那点奖学金跟公司年薪比起来,简直是杯水车薪。

于是,大量有潜力的年轻学者被迫放弃学术梦想,投身产业界。长此以往,整个AI领域的创新源头就会枯竭。没有新鲜血液,没有敢于质疑权威的“异端”,AGI这种需要突破性思维的领域,怎么可能有未来?

第二个问题,是短视的激励机制。
在这些大型实验室里,员工的绩效评估、奖金发放、晋升通道,全都围绕着“季度目标”、“年度KPI”展开。

你花三年时间去验证一个没人看好的理论?老板会问你:“这能带来多少营收?”“能写进财报吗?”

在这种压力下,谁还敢去碰那些风险高、周期长、回报不确定的基础研究?(不过,ChatGPT之父伊利亚正在做基础研究,不是阿三阿四都有资格做基础研究的)

于是,大家一窝蜂地去做那些“稳赚不赔”的事情——比如把现有模型再放大几倍、换个数据集重新训练、加个强化学习模块微调一下。这些工作当然有价值,但它们只是在“修修补补”,而不是“开天辟地”。

真正的科学突破,往往来自于那些“不切实际”的想法,那些需要十年甚至二十年才能验证的假设。可现在的环境,容不下这样的耐心。(人工智能时代已经耐心等待三十年,前三十年都被李飞飞图像、世界模型假设误导了,刚发现通过语言文字可能实现AGI,同时Transformer架构具有scaling-up扩展伸缩优势,能通过不断投入服务器硬件提高智能,马斯克说:投入十倍资本硬件投入,产生2倍智能输出,这个买卖还是合算,于资本于科学于人类发展都是全赢!智能提高,医学那点统计学那点有点伪科学就真的插上翅膀:特朗普亲自公开发言:孕期泰诺林致自闭症风险暴增

第三个痛点,是企业政治和群体思维。
在大公司里,领导层喜欢什么?当然是“安全牌”。那些符合主流观点、容易获得同行认可、风险低的项目,更容易获得资源和支持。而那些天马行空、挑战传统、甚至有点“离经叛道”的想法,往往会被打上“不成熟”、“太激进”、“缺乏商业价值”的标签,然后被束之高阁。(科学界也存在 科学霸权!)

这就形成了一个恶性循环:越是有才华的人,越不敢提与众不同的想法;越是保守的方案,越容易被采纳。久而久之,整个行业的思维模式就变得僵化、同质化。可AGI是什么?它是一个前所未有的科学难题,它的答案很可能藏在那些被主流忽视的角落里。如果我们只盯着眼前的“共识”,那等于主动放弃了通往未来的钥匙。

结果呢?越来越多的资源,都被集中投入到一个单一的方向——那就是不断放大语言模型(LLM),并用强化学习来微调它们。(这是资本的好处,集中资本力量办大事,看准方向,用力发展,大方向已经被 诺贝尔奖获得者辛顿等认可,其弟子伊利亚亲创ChatGPT,实践证明他们两是唯一真神,其他人就是失败者,全部去做工程,这个残酷的现实正是人类得以持续高效发展的本质!)

这个策略在短期内确实有效,能快速产出可以赚钱的产品,比如聊天机器人、内容生成工具、代码辅助系统等等。但从长远来看,如果AGI最终被证明是一个“科学问题”,而不是一个“工程问题”,那么这种“集中火力”的做法,就是一个巨大的战略失误。科学的进步,需要的是多元化的探索、广泛的试错、自由的思想碰撞。而我们现在做的,恰恰是相反的事情——把所有鸡蛋放在一个篮子里,还指望它能孵出凤凰。

说到这里,你可能会问:既然这么多人觉得这条路走不通,为什么资本还在疯狂投入?这就是最讽刺的地方。市场行为和科学证据,正在出现严重的背离。许多投资者,尤其是华尔街的金融大佬们,他们的逻辑很简单:算力就是未来的石油,囤积算力就等于囤积财富。不管你现在能不能做出AGI,只要我把数据中心建得越大、芯片买得越多、模型参数堆得越高,我就占据了未来的制高点。这种思维,本质上是一种“赌徒心理”——他们不在乎科学规律,只在乎市场预期

哪怕科学家们已经明确表示,单纯增加算力并不能解决根本问题,他们依然选择相信“更多就是更好”。

(关键在于:赌徒认同的科学规律和书生认同的科学规律不同:只有资本支出表明了真实的市场之战在哪里,人们用真金白银的钱而不是嘴皮子投票,马斯克已经说了:投入10倍投资产生2倍智能,值得赌,当然你科学界如果能研发出更高效的算法,更好,但是你不能让全社会等你们这些科学家啊,这是朝圣,科学家变成了梵蒂冈大主教了,所以,有宗教信仰的赌徒是有分寸的,没有宗教信仰的赌徒才是疯子,容易被骗,因为无法分清楚对方是人?还是人装神?科学家扮成神你就觉得更牛,因为你心目中没有为“神”留下一片敬畏之地)。

这种背离,在现实世界中表现得淋漓尽致。一方面,AI领域的顶尖人物,如伊利亚·苏茨克维(Ilya Sutskever)、山姆·阿尔特曼(Sam Altman)、安德烈·卡帕西(Andrej Karpathy)等,都在公开场合调整他们对AGI时间表的预测。他们不再谈论“2027年实现AGI”,而是改口说“这是一个温和的奇点”、“未来十年将是代理人的时代”。

这些话翻译过来就是:我们之前想得太简单了,AGI比我们想象的要难得多。另一方面,微软、亚马逊、甲骨文、Meta、Coreweave这些巨头,却在疯狂扩大资本支出,把利润全部投入到新建数据中心、采购GPU、扩建云服务中。他们不是在“押注未来”,而是在“制造泡沫”。当科学界在降温,资本市场却在升温,这本身就是一种危险的信号。

(AI领域的顶尖人物说“2027年不可能实现AGI”,意思是,2027年靠他们研究算法提升已经不可能实现AGI,他们的上下文位置需要搞清楚,他们是研究者,研究者谦虚说:我们已经尽力,想2027年实现AGI,单纯靠我们科研人员是不可能。你不能忽视这个上下文Context,忽视语境,以为他们是代表科研和资本以及全人类说这个话,未免太狂了,你们科研人员不行,社会上还有资本啊,资本是推动创新的源动力和钱塘江前浪,它们拍死在沙滩上,只是损失了钱,和一点时间,但是同时那些同时跑不同赛道的资本就可能赢了,这是资本市场优势,否则如果全民将所有鸡蛋放在一个篮子里,都投入你们AI领域的顶尖人物身上,你们说不行,那大家的鸡蛋不是都砸了吗?)

更深层的问题在于,我们正在进入一个“市场驱动型AGI概率”和“科学驱动型AGI概率”相互撕裂的时代。

  • 前者认为,只要投入足够的资金和算力,AGI迟早会到来;
  • 后者则认为,AGI的实现取决于基础科学的突破,比如对意识、学习、推理的本质理解。

这两条曲线,正在朝着相反的方向发展。一边是科学家们基于第一性原理、实验数据、理论推导,不断修正他们的判断;另一边是投资者们基于市场情绪、竞争压力、财报预期,盲目地加大投入。

这种割裂,不仅浪费了巨额的社会资源,更可能让整个行业陷入“虚假繁荣”的陷阱,最终导致真正的创新被扼杀在摇篮里。

(这种割裂怎么可能浪费巨额的社会资源,如果你把巨额的社会资源投入一个方向,这个方向失败,才是浪费,关键在于,没有上帝能统一筹集巨额的社会资源,而是在巨额的社会资源里面分为很多资本资源,他们归民间个人所有,愿赌服输,他们愿意用这些可以牺牲的钱试探摸摸石头过河,成功了就成为马斯克世界首富,更多是失败,一将功成万骨摧, 现代社会了,一个首富诞生不需要牺牲其他人的性命,只是牺牲其他人的金钱,金钱没有了,可以开动印钞机再印,但是一条前面的大道被发现了,这不正是印钞机的唯一好处吗?不用印钞机,难道用战争吗?战争也可以催生新技术,但是那真的以牺牲万人坑代价带来的,原子弹就是这样的技术!)

杰弗里·辛顿(Geoffrey Hinton),被誉为“深度学习之父”。他在2023年突然从谷歌离职,并公开表示对AI发展的担忧。他说,我们正在制造一些我们无法控制的东西。这句话听起来像是科幻电影里的台词,但它反映了一个残酷的现实:当资本的力量远远超过科学的理性时,技术的发展就会失控。我们不是在建造一个造福人类的工具,而是在制造一个可能反噬我们的怪物。辛顿的警告,应该引起所有人的重视。他不是悲观主义者,他是一个清醒的观察者。他知道,真正的进步,不能靠蛮力,而要靠智慧。

那么,我们该怎么办?
首先,必须重新审视AI发展的路径。不能一味地追求规模和速度,而要回归科学本质,鼓励多元化探索。(资本主导的正是多元化探索,难道让科学家辛顿作为总领导,万一全社会资源被他调度了投资到错误的100个方向探索?而资本主导的一个叫马斯克的人进行了与众不同的101方向探索成功了,等他再需要全社会资源支持了,社会被被辛顿一个人的错误决策掏空了,也没有办法支持马斯克了,所以,写本文的人就是一个精神分裂者,属于利他主义者,专门降低有效主义的节奏,搞破坏的。)

其次,要改革科研激励机制,给那些愿意做长期研究、敢于挑战权威的学者提供足够的支持和保障。
(科学界的科学霸权腐败已经形同梵蒂冈大主教了,哥白尼日心说被当时宗教绞杀,现在科学霸权何尝不在扼杀一个个我们不知道的伟大研究呢,不靠民间资本敏感的嗅觉,依靠科学大主教们的立场和他们的思路吗?)

第三,要建立更加理性的投资机制,让资本真正服务于科学,而不是绑架科学。
(让资本真正服务于科学,还是让科学服务于资本?这是一个鸡生蛋还是蛋生鸡问题,美国之所以是资本主义,就是资本第一,科学服从于资本,本文作者身陷这样的陷阱中,认为打破这个上下文才得以永生,那是他太天真了,如果让资本屈从于科学,科学霸权就是大主教,所以,关键是平衡资本和科学两者!两个轮子同时跑,相互协作

大摩:2026年AI或迎非线性跃迁 引爆万亿资产重估