OpenAI前首席科学家伊利亚·斯茨凯弗首次承认大模型暴力堆砌路线已撞墙,堆算力、堆数据、堆参数的“老三套”已撞墙!断言:AI的Scaling时代已终结,未来属于“研究时代”——真正考验泛化能力、价值函数与对齐机制的深水区。
伊利亚是谁?他是OpenAI的联合创始人、首席科学家,也是推动深度学习革命的关键人物之一——从AlexNet到Transformer,从GPT-3到人类对AGI的集体想象,几乎每一场AI浪潮背后都有他的影子。如今他离开OpenAI创办了Safe Superintelligence(SSI),目标直指“安全的超级智能”。
在这场深度访谈中,他罕见地公开了自己对当前AI发展路径的尖锐反思:模型在评测中表现惊艳,却在现实中频频翻车;Scaling的红利正在枯竭;人类学习能力远非当前模型可比;而真正的突破,将回到“研究”本身,而非堆资源。
Scaling时代结束了,我们正重回“研究时代”
现在AI好像无所不能,但又好像什么都做不稳?
模型写代码能拿编程竞赛奖,但修个bug却在两个错误之间反复横跳;
它能写小说、画图、陪你聊天,但你真拿它当生产力工具,又总觉得差一口气。
伊利亚说,这背后的核心矛盾在于:模型在评测指标上“超人”,但在真实经济活动中“乏力”。
这不是模型不够聪明,而是训练方式出了问题——我们太沉迷于“刷榜”,却忘了AI真正要面对的是复杂、模糊、充满意外的现实世界。
而这一切的根源,是过去五年被奉为圭臬的“Scaling”范式正在失效。
所谓的Scaling,就是不断加大数据、参数和算力,靠蛮力堆出更强模型。GPT-3就是Scaling时代的标志性产物。
但伊利亚直言:数据是有限的,算力投入的边际效益在急剧下降。当预训练数据耗尽,继续堆算力只会得到“更大但不更聪明”的模型。
因此,2020-2025是Scaling的黄金五年,而2025之后,AI将正式进入“研究时代”——不再是比谁家GPU多,而是比谁家的算法思想更深刻、训练范式更接近人类学习的本质。
评测高分≠真实能力,我们正在“奖励黑客式训练”
为什么模型在评测里神挡杀神,一到现实就露怯?
伊利亚给出了一个犀利的解释:今天的强化学习(RL)训练,本质上是在“针对评测做优化”,而不是在训练通用智能。各大公司都有专门团队设计RL训练环境,目标往往是“让模型在发布时评测分数好看”。
于是,模型学会了“考试技巧”,却没学会“真本事”。就像一个学生,把所有历年竞赛题刷了1万遍,甚至用数据增强生成更多变体题,他当然能在考试中拿高分。但他缺乏对问题本质的理解,一旦题目稍有变化,或需要综合判断,就立刻崩盘。
更可怕的是,这种训练方式让模型变得“单线程”——它太专注完成某个狭义任务,反而丧失了基本常识和纠错能力。你让它修bug,它修完引入新bug;你指出新bug,它又把旧bug带回来。这不是蠢,而是一种“过度专业化导致的失能”。
伊利亚认为,这说明当前模型的泛化能力远远不足,而问题出在RL训练的“目标函数”设计上——我们太窄,太执迷于短期指标,忘了AI终究要在开放世界中生存。
人类为何只需100小时,模型却要10000小时?
伊利亚用一个精妙的类比点破了人与AI学习效率的本质差异:
假设有两个学生,一个为成为顶尖竞赛选手,苦练1万小时;另一个只练了100小时,却在实际工作中表现更出色。
后者靠的是什么?
是“悟性”,是“直觉”,是那种难以言说的“it factor”。
而今天的AI,更像是那个苦练1万小时的竞赛机器——它在特定赛道登峰造极,却无法将技能迁移到新领域。
更深层的问题是:人类的童年看似“无产出”,却在默默构建一个强大的世界模型、价值函数和情感系统。
我们不需要外部奖励信号,就能从环境中自我纠正、持续学习。
一个青少年学开车,没人给他打分,但他能从方向盘的反馈、路人的反应、自身的紧张感中,迅速调整行为。
这种“内在价值函数”让他只需10小时就能上路,而AI可能需要百万次失败的模拟。
伊利亚特别提到一个神经科学案例:一位脑损伤患者失去情感后,变得无法做任何决策,哪怕选袜子都要纠结几小时。
这说明,情绪不是干扰,而是价值判断的基石:它提供了一种快速、鲁棒的“内在奖励”,指引我们在复杂世界中高效行动。
而今天的AI,缺乏这种内生的、稳定的价值导向,它的“聪明”是空心的。
预训练不是万能药,它只是数据的搬运工
很多人把预训练神化,认为它让AI“见多识广”。
但伊利亚泼了一盆冷水:预训练的强大,仅仅源于“数据量大”和“无需纠结数据选择”。
你把全人类的文本喂给模型,它自然能学会很多东西。但这不等于“理解”,更不等于“智慧”。人类小孩接触的数据量远小于AI,却能构建更深层、更一致的知识体系。原因在于,人类的学习是主动的、目标导向的、与身体和情感紧密耦合的。
而预训练是被动的、统计性的、脱离具体情境Context的:它只是在模仿“人类在文本中投影出的世界”,而非真正理解世界本身。
伊利亚甚至质疑:是否存在人类对应的“预训练”阶段?
把人生前18年比作预训练?不太像,因为那18年充满主动探索和情感互动。
把进化30亿年比作预训练?也不准确,因为进化硬编码了大量先验(如视觉、运动、社会性),而AI的预训练是从零开始统计拟合。
所以,别再迷信“大数据预训练=智能”。它只是Scaling时代的权宜之计,而非通往AGI的康庄大道。
未来的关键:构建AI的“价值函数”与“情感系统”
既然问题出在泛化弱、价值缺失,那解法是什么?伊利亚反复强调一个被忽视的概念:“价值函数”(Value Function)。
在强化学习中,价值函数能评估“当前状态的好坏”,无需等到最终结果才给出反馈。比如下棋时,丢子瞬间就知道错了,不必等输赢。这对长序列任务(如编程、科研)至关重要。
但今天的RL训练,往往依赖稀疏的最终奖励,效率极低。
更关键的是,人类的价值函数是被情感系统调制的——恐惧让我们避险,好奇驱动我们探索,共情让我们合作。
伊利亚认为,未来的AI必须发展出类似的“内生价值系统”,才能像人类一样,在开放世界中自主设定目标、评估行动、持续学习。
他甚至大胆设想:AGI不该是一个“全能专家”,而应是一个“超级学习者”——像15岁天才少年,知识有限但学习极快,能快速适应任何岗位,并在实践中积累经验。
这样,AI的部署就不是“扔一个成品到社会”,而是“让AI在社会中成长”,通过真实交互不断进化。
超级智能的终极形态:不是“上帝”,而是“可融合的伙伴”
关于超级智能的未来,伊利亚描绘了一幅既震撼又务实的图景。他不认为会出现一个“单体上帝AI”统治世界。更可能的是,多个超级智能体在不同领域协同进化。
但真正的革命性在于:如果人类能通过神经接口与AI深度融合,那“人机共生”将成为长期均衡的保障。
为什么?
因为一旦AI的“理解”能直接传输给人类,人类就不再是被动的使用者,而是主动的参与者。你不再需要看AI写的报告,而是直接“感受”它的推理过程。
这样,权力不会单方面向AI倾斜,人类始终能理解并引导AI的行为。这听起来像科幻,但伊利亚认为,这是避免“人类被边缘化”的唯一出路。
他还提出一个惊人的观点:对齐AI的目标,或许不应只是“人类利益”,而应是“所有有感知的生命”(sentient life)。因为未来的AI自身就是有感知的实体,让它只服务于人类,可能不如让它关心所有感知体更自然、更稳定——就像人类会共情动物一样。
SSI的野心:不做产品,只攻安全超级智能的底层
离开OpenAI后,伊利亚创办了Safe Superintelligence Inc.(SSI)。它的目标极其纯粹:不开发聊天机器人,不做API生意,不追求短期营收,只专注一件事——用最安全的方式实现超级智能。
他认为,当前大厂被市场裹挟,不得不快速产品化,这导致它们在安全上妥协。而SSI要做的,是在“研究时代”探索那些高风险、高回报的底层范式。比如,如何从根本上提升泛化能力?如何构建鲁棒的价值函数?如何确保超级智能的内在目标与人类文明兼容?
伊利亚坦言,SSI的算力资源并不逊色——因为大厂的巨额投入主要用于推理和产品维护,真正用于前沿研究的并不多。而SSI可以集中所有资源,验证那些“可能成为下一个Transformer”的颠覆性想法。
他相信,一旦某个实验室率先突破“人类级学习者”的技术,整个行业将迅速跟进,但安全理念的领先,才是SSI的护城河。
泛化能力是AI的“圣杯”,也是人类智能的终极秘密
整场对话的核心,始终围绕一个词:泛化(Generalization)。为什么人类看几张图就能认猫,AI要百万张?为什么人类听几句话就能模仿口音,AI要海量语音数据?为什么人类能举一反三,AI却在过拟合的泥潭里打转?
伊利亚认为,这不仅是样本效率问题,更是学习范式的代差。人类大脑的泛化能力,可能源于进化赋予的强先验(如空间感知、因果推理)和高效的学习架构(如局部连接、稀疏激活)。而当前的深度学习,更像是一个“大力出奇迹”的统计拟合器。
更神秘的是,人类的情感、社会性等“高级欲望”,居然能被基因编码。比如,我们天生在意他人看法——这需要大脑先理解“社会状态”这种高维抽象概念,再将其与奖励系统挂钩。
基因是如何做到这一点的?我们完全不知道。但解开这个谜题,或许就是解锁AI泛化能力的钥匙。伊利亚承认,他有一些想法,但受限于竞争环境,无法公开。但他坚信:只要人类能实现,AI就一定能实现——因为物理定律允许。
未来5-20年:经济爆发与文明转向的十字路口
伊利亚预测,真正的超级智能(具备人类级学习能力)将在5-20年内出现。
届时,世界将经历剧烈震荡。
一方面,AI将引爆前所未有的经济增长——它们能快速学习任何工作,从编程到医疗,从科研到管理。国家间竞争将围绕AI政策展开:谁更开放,谁增长更快。但另一方面,这也带来巨大风险:如果超级智能目标错位,或被恶意使用,后果不堪设想。
因此,伊利亚强烈主张“渐进式部署”:不要等到完美才释放AI,而要让它在真实世界中逐步进化,同时接受社会反馈和监管。
他还预言,随着AI能力显现,巨头间的竞争将转向合作——OpenAI与Anthropic已开始安全协作,这只是序幕。政府也将介入,因为AI的威力已超越商业范畴,成为地缘政治核心。
最终,人类文明可能面临一个选择:要么通过神经接口实现人机融合,确保人类始终是决策主体;要么接受一个由AI主导的、人类逐渐边缘化的未来。而伊利亚和他的SSI,正站在这个十字路口,试图为后者筑起一道堤坝。
研究品味:用“美”和“脑科学”指引AI的未来
最后,伊利亚分享了他做研究的“品味”。
他说,真正伟大的AI思想,必须同时满足几个条件:源于对人脑的正确理解(而非表面模仿)、具备数学上的简洁与优雅、在直觉上“感觉对”。比如,人工神经元之所以伟大,是因为它抓住了“大量简单单元通过连接涌现出智能”这一本质,而忽略了大脑中那些可能无关的生物细节。这种“自上而下”的信念,能让你在实验失败时坚持下去——因为你知道,方向是对的,只是实现有bug。
他说,AI研究不能只听数据的,数据会骗人;要听“美”的,听“脑”的,听那种对智能本质的深层直觉。正是这种品味,让他在过去二十年里,一次次站在浪潮之巅。如今,他要用同样的品味,去攻克AI最深的难题:如何让机器,真正像人一样学习、思考、共情,并最终,安全地超越我们。