AI先驱杨立昆认为大模型快过时了


AI先驱杨立昆(Yann LeCun)认为现在的大语言模型快过时了

如果你问杨立昆(Meta首席AI科学家、图灵奖得主、纽约大学数据科学家、人工智能先驱)关于ChatGPT、Gemini、Llama这些大语言模型(LLM)的未来,他的回答可能吓你一跳:他认为五年内LLM基本就淘汰了。

他在接受《新闻周刊》采访时解释。他团队正在开发的"联合嵌入预测架构"(JEPA)能让AI建立真实世界模型,还能"像设定目标那样控制它们"。如果三到五年能成功,会创造出更擅长推理和规划的系统。

他对此深信不疑,去年还劝年轻开发者:"别搞LLM了,这些都被大公司垄断了。你们应该研究突破LLM限制的下一代AI。"

这很讽刺:当今AI热潮的缔造者之一,现在却成了最著名的质疑者。当大家都在追捧聊天机器人、投资人砸钱给LLM初创公司时,连自家Llama模型都是行业标杆的杨立昆却不为所动。

在他看来,现在的AI模型——包括他自己参与创造的——都只是局限在文字领域的专用工具,根本不理解真实世界。这就像机器人专家Rodney Brooks警告的"AI魔法思维":人们总把局限领域表现好的AI拟人化。

杨立昆的警告值得重视:他研究神经网络几十年,与Hinton、Bengio并称"深度学习三巨头",2018年共获图灵奖。

1960年生于法国的杨立昆从小痴迷AI。9岁看《2001太空漫游》时,他就被"智能能自我组织"这个概念吸引。尽管80年代神经网络研究遭学界抵制(当时连提"神经网络"都是禁忌),他仍在博士期间发明了著名的"反向传播"算法,这成了现代AI训练的基石。

1987年博士毕业后,他在贝尔实验室开发出"卷积神经网络"(CNN),模仿动物视觉皮层的工作原理。这项技术后来用于银行支票识别系统,90年代末处理了全美10%的支票。现在从人脸识别到自动驾驶都用这个技术。

2013年扎克伯格挖他创建FacebookAI研究院。谈到LLM的缺陷,他举例说:"LLM就像人脑的'系统1'(快速反应),根本不会推理。"这导致AI能通过律师考试却造不出像猫一样灵活的机器人——因为语言是低维度的离散空间,而真实世界复杂得多。(这个观点只是普通物质与意识分离的唯物主义观点,没有理解维特根斯坦的语言即世界哲学:所谓客观世界其实只能存在主观语言中,无法表达的客观其实不存在,康德认为:物自体不可言)

他算了一笔账:现在大模型训练数据约10^14字节,人类要40万年才能读完。但4岁孩子通过视觉接收的信息量也是这个级别——"光靠文字训练永远达不到人类智能"。

他定义智能是"快速掌握新技能的能力":10岁孩子看几次就能收拾餐桌,17岁少年20小时学会开车。但AI看了几百万小时行车记录还是不会自动驾驶。(这个观点是以人类参照物判断智能,忽视了智能多样性以及我们潜在存在对智能有错误认知)

他认为智能必须能建模物理世界。婴儿9个月就懂重力,逐渐明白"物体恒存"——这些分层级的世界模型让人类能做抽象规划(比如从纽约去巴黎要先打车到机场),而LLM只会机械生成文字。

所以他不搞LLM了,转向JEPA研究:通过视频训练AI预测世界运行。比如他们最近的V-JEPA模型,看到物体违反物理规律(突然消失)时会"惊讶"。这不同于LLM猜下一个词,而是真正学习物理规律。

他认为未来LLM可能只负责"把抽象思维转成语言",就像人脑的布罗卡区——这个几万年前才进化出的区域一旦受损,人就无法表达思想。

虽然批评现有AI"离人类智能差得远",但LeCun并不悲观。他认为AI会像15世纪印刷术那样变革社会,但主要是增强而非取代人类。不同于导师Hinton担心AI灭绝人类(认为2030年前有10-20%概率),他直言"这完全错误":首先纯智力不等于权力(看看政客),其次AI很容易设防"就像给AI装护栏"。

他设想未来会形成"AI生态系统":如果有AI作恶,更聪明的AI警察会制止。人类将变成"管理层",AI则是听话的工具。为此他力推AI开源:"没有开源模型,任何国家都谈不上AI主权。"

最后他对比两种编程方式:现有AI像"系统1"要试错千万次,人类程序员像"系统2"直接写目标代码。要消除这种效率差距,必须发展世界模型。

他开玩笑说:"要是我退休前能造出和猫一样聪明的AI就满足了——顺便说,我快退休了,时间不多了!"