人工智能圈里最热的词,不是“大模型”、不是“推理”,而是“世界模型”(World Models)。这个听起来像科幻小说里的概念,其实早在上世纪40年代就埋下了种子。
如今,它正从心理学的冷板凳上被重新请回AI的主舞台,成为通往所谓“通用人工智能”(AGI)的关键拼图。Yann LeCun、Demis Hassabis、Yoshua Bengio这些名字响当当的AI教父级人物,几乎异口同声地说:没有世界模型,AI永远只是鹦鹉学舌的复读机,成不了真正能思考、会预测、懂安全的“智能体”。
可问题是,什么叫“世界模型”?听起来挺简单——就是AI脑子里有个“小地球仪”,能模拟现实、推演后果、预判风险。就像你不会去挡一辆开过来的火车,不是因为你试过被撞飞的滋味,而是你大脑里已经跑过这个模拟:后果太惨,不值得尝试。
这种“内在模拟器”,我们人类天生就有,它让我们能做计划、会反思、懂因果。而现在的AI,尤其是那些聊天聊得天花乱坠的LLM们,它们真的有吗?还是只是在用海量数据堆出来的“经验主义”糊弄人?
这个问题,得从1943年说起:那一年,一个叫肯尼思·克雷克(Kenneth Craik)的苏格兰心理学家,在他那本影响深远的小册子里提出了一个惊人的想法:智能的本质,是能在头脑中构建外部世界的“小比例模型”。这个模型不一定要百分百精确,但得足够自洽,能用来“试错”——在脑子里先跑一遍,再决定要不要动手。这个观点,比“人工智能”这个词的诞生还早了十几年,却精准预言了后来认知科学的崛起,也成了今天AI研究的哲学基石。
早期AI曾试图复制这种能力。上世纪60年代末,一个叫SHRDLU的程序就能在一个虚拟的“积木世界”里回答诸如“金字塔能不能撑住方块”这种问题。它靠的就是一个简化的、规则明确的“世界模型”。可问题也出在这儿——这个世界太干净了,太理想化了。现实世界哪有那么多规整的积木?于是到了80年代,机器人专家罗德尼·布鲁克斯干脆掀桌子:别搞什么内部模型了,世界本身就是最好的模型!让机器直接感知、直接反应,反而更高效。这一派“行为主义/具身智能”路线一度主导了机器人学,也让“世界模型”这个词沉寂了多年。
直到深度学习的崛起,才让这个老概念重新活了过来。神经网络不像传统程序那样依赖人工编码的规则,而是通过大量数据“自学成才”。它们在训练过程中,不知不觉地在内部形成了对环境的某种“压缩表示”——比如自动驾驶模型在虚拟赛道上学开车,它可能并没有一张地图,但它学会了“弯道要减速”“障碍物要避开”这类模式。这些模式,是不是就是一种原始的“世界模型”?很多人开始这么认为。
特别是当大语言模型展现出“涌现能力”时,比如用emoji猜电影名、下五子棋、甚至解简单的物理题,人们更觉得:这背后一定有个“模型”在运作。不然它怎么能推理?怎么能泛化?图灵奖得主杰弗里·辛顿、OpenAI联合创始人伊利亚·苏茨克弗,还有可解释性研究大神克里斯·奥拉,都公开表示:LLM的深层网络里,藏着一个克雷克当年设想的“小型现实模拟器”。
但现实,往往比想象骨感得多。近年来,越来越多的研究开始“拆解”这些大模型,试图找到那个传说中的“一致世界模型”。结果呢?他们没找到大象,只摸到了一堆零碎——有人摸到“蛇”(语言模式),有人摸到“树”(结构知识),还有人扯到了“绳子”(统计关联)。
MIT和哈佛的学者做过一个实验:训练一个LLM学会在曼哈顿指路。它指得又快又准,几乎像本地人。可一旦研究人员随机封掉1%的街道,它的导航能力立刻崩盘。
为什么?因为它根本没掌握一张完整的地图,而是记住了成千上万条“从A到B的最佳路径”,每条都是孤立的经验。路一断,记忆失效,它就傻了。
这就像一群盲人摸象,每个人只记住了一部分,却拼不出整体。LLM的强大,靠的是“量变产生质变”——参数够多,经验够杂,就能应付绝大多数常见场景。可一旦遇到训练数据里没见过的“边缘情况”,它就露馅了。
这种“袋装启发法”(bags of heuristics)的模式,灵活但脆弱,聪明但不可靠。
所以,为什么还要费劲搞世界模型?答案就两个字:鲁棒性。一个真正拥有世界模型的AI,不会因为一条街封了就乱了阵脚。它知道城市是个连通的网络,能动态规划新路线。它理解“道路”“方向”“距离”之间的关系,而不是死记硬背路径。更重要的是,它能解释自己的决策:“我绕路是因为前方施工,替代路线虽然远200米,但能节省3分钟。”这种可解释、可验证、可纠错的能力,才是我们对“可信AI”的期待。
现在,全球各大AI实验室都在暗中较劲:
谷歌DeepMind和OpenAI的思路是“喂得更多”——用视频、3D场景、物理模拟等多模态数据训练模型,期待世界模型能像结晶一样,从数据洪流中自然浮现。
Meta的LeCun则更激进,他认为现有的生成式架构根本不是为世界模型设计的,得另起炉灶,搞一套全新的、非自回归的系统,让AI能主动“想象”未来,而不是被动“续写”文本。
问题是,没人知道这条路通向哪里。我们甚至还不清楚,该怎么判断一个AI是否真的拥有世界模型。是看它能不能画出一张准确的地图?还是看它能否预测一个杯子从桌上滑落的轨迹?亦或是它能否在没学过的情况下,理解“如果我撒谎,别人就会不信任我”这种社会因果?
世界模型的复兴,不只是技术问题,更是哲学问题。它逼我们重新思考:什么是理解?什么是智能?如果AI能完美模仿人类行为,却从未真正“建模”世界,那它算有智慧吗?反过来,如果它有一个粗糙但自洽的世界模型,哪怕表达笨拙,是不是更接近“真正的思考”?
这场回归,像极了科学史上的许多轮回——旧思想在新技术的土壤里重新发芽。这一次,我们或许终于有机会,造出一个不只是“知道”,而是真正“懂得”的机器。而那个小小的“计算雪 globe”,也许就是通向未来的钥匙。