十年内真能迎来通用人工智能?卡帕西深度拆解AGI现实路径!

前OpenAI科学家、斯坦福AI博士卡帕西亲述他对AGI时间线、智能本质、强化学习局限及人机协作未来的冷静判断。

一个流行、超级硬核但又极其接地气的话题:通用人工智能(AGI)到底还有多远?别急着划走,这不是那种“明年就取代人类”的浮夸炒作,而是来自前OpenAI核心科学家、斯坦福AI博士安德烈·卡帕西(Andrej Karpathy)在Dwarkesh Patel播客中的深度反思。他不仅参与打造了ChatGPT的底层架构,还是特斯拉自动驾驶AI的奠基人之一。这次他罕见地系统性梳理了自己对AGI时间线、智能本质、学习范式、人机协作等关键问题的看法,信息量爆炸,值得每一个关注AI未来的你认真看完。

首先,关于AGI的时间线,卡帕西明确表示:
他比硅谷AI圈里那些“明年就AGI”的狂热分子要悲观5到10倍,但又比那些彻底否定AI进展的怀疑论者乐观得多。

他的核心观点是——过去几年大语言模型(LLM)确实带来了巨大飞跃,但距离真正能胜任“世界上任意工作”的通用智能体,还有大量“脏活累活”要做。比如:如何让AI可靠地连接物理世界(传感器+执行器)、如何解决安全与对齐问题(比如越狱、数据投毒)、如何完成复杂系统集成,以及最关键的社会适应性。

他认为,10年是一个“非常激进但并非不可能”的AGI时间表——听起来很长?但在当前全民狂热的氛围下,这反而显得格外清醒。

接下来,他提出了一个特别有意思的比喻:动物 vs. 幽灵。
什么意思?
他说,很多人幻想存在一个“单一简单算法”,只要放出去就能从零学会一切。但自然界中的动物根本不是这样工作的——小斑马出生几小时就能奔跑,靠的不是后天学习,而是亿万年进化预装的“出厂智能”。

人类不可能重演进化,但我们意外地找到了另一条路:通过在互联网海量文本上预测下一个词,把人类文明的知识“预打包”进神经网络。这种智能体不像动物,更像“幽灵”——没有身体、没有本能、只靠语言存在

卡帕西认为,未来的前沿工作,就是让这些“幽灵”逐渐变得更像“动物”:拥有感知、行动、记忆和目标。(从语言到具身智能性,而不是反过来!

说到学习方式,卡帕西对强化学习(RL)表达了强烈质疑。(RL强化学习鼻祖曾表示对语言模型不屑一顾)
他用了一个特别形象的说法:“强化学习就像用吸管喝汤”——信号效率极低。

为什么?因为一次输出可能包含多个错误,但只要最后碰巧答对了,整个过程就被奖励;反之,中间某个精彩推理可能因为后续失误而被惩罚。这种噪声极大的反馈机制,很难支撑可靠的学习。

他更看好“智能体交互”(agentic interaction)和“系统提示学习”(system prompt learning)这类新范式。比如你现在用的ChatGPT记忆功能,其实就是一种原始的新型学习机制——不是靠打分,而是靠上下文持续演化。

他还提出了一个关键概念:“认知核心”(cognitive core)。意思是,现在的LLM太依赖死记硬背了!它们把训练数据里的答案直接“背”下来,而不是真正推理。相比之下,人类因为记性差,反而被迫发展出更强的泛化能力

卡帕西认为,未来的模型可能需要主动“遗忘”或限制记忆,逼着自己去思考。这听起来反直觉,但其实是一种高级的正则化手段。

他还提到一个有趣趋势:模型必须先变大,才能变小。只有在足够大的参数空间里学会抽象,才能提炼出更小、更高效的智能核心。

(人类因为记性差:为学日益,为道日损,这种为道的抽象能力正是AI缺乏的,现在也要让AI放弃一些记忆,提升一些抽象之道

卡帕西还回忆了一个思想实验:如果让1989年的杨立昆(Yann LeCun)穿越到今天,只给他当年的算力和数据,但配上33年积累的算法知识,他的成果能提升多少?

这个实验揭示了一个真相:AI进步从来不是单一因素驱动的,而是算法、数据、算力三者的复杂耦合。
有时候,算法突破会被数据或算力拖后腿;
有时候,海量数据又能掩盖算法的粗糙。
理解这种张力,才能避免盲目乐观或悲观。

作为工程师,卡帕西最近还开源了一个叫“纳米聊天”(nanochat)的项目——这是他对ChatGPT训练和推理全流程的极简复现。不是为了炫技,而是想告诉大家:真正的AI系统没那么神秘,核心逻辑其实清晰可解。

他也借此批评了当前AI智能体(Agent)行业的浮躁风气。他说,很多公司幻想让AII智能体独自跑20分钟,回来甩你1000行代码。但现实是,人类根本无法有效监督这种“黑箱输出”。

他理想中的协作模式是:AI写代码时实时解释逻辑、引用API文档、验证正确性、并在不确定时主动提问。这样,程序员不仅能用AI提效,还能在过程中学习成长。否则,盲目堆砌AI生成的代码,只会导致软件质量崩坏、漏洞泛滥、安全危机四伏。

最后,他谈到了就业影响。很多人担心AI抢饭碗,但卡帕西举了个例子:放射科医生非但没被AI取代,反而因为AI辅助而变得更高效、需求更大。真正容易被自动化的,是那些高度结构化、重复性强、反馈明确的任务。而需要复杂判断、人际互动、跨领域整合的工作,短期内依然安全。

他还特别强调:孩子应该从小学物理,不是为了当物理学家,而是因为物理学是“大脑的启动操作系统”——它训练你如何建模世界、如何推理因果。在他看来,物理学家就像是“智力的胚胎干细胞”,具备最强的迁移学习能力。

总结一下卡帕西的核心立场:他既不是末日论者,也不是速胜派。他相信AGI终将到来,但路径远比想象中曲折。真正的突破不会来自某个神奇算法,而是一步步解决工程、安全、交互、泛化等具体问题。在这个过程中,人类不该把自己当成旁观者或被替代者,而应成为AI的协作者、监督者和共同进化者。