图灵奖得主杨立昆与DeepMind科学家亚当·布朗的巅峰对谈  


当AI不再只是“下一个词预测器”!杨立昆与亚当·布朗激辩大语言模型是否真懂世界,揭示AI通往真正智能的关键瓶颈与未来路径。  

谁在定义AI的未来?杨立昆和亚当·布朗的世纪对谈拉开序幕  

2025年真正掌握技术底层逻辑的科学家却寥寥无几。在这场由科技界顶尖大脑主导的对谈中,图灵奖得主、Meta首席AI科学家杨立昆(Yann LeCun)与DeepMind高级研究员亚当·布朗(Adam Brown)正面交锋,围绕“大语言模型到底有没有理解力”、“AI是否接近通用智能”、“未来AI的发展方向”等核心问题展开一场既激烈又充满洞察力的对话。

杨立昆以一贯的犀利风格直言“机器学习很烂”,而布朗则坚定捍卫当前深度学习范式,认为“AI能力正在指数级上升”。这不是普通的学术讨论,而是关乎未来十年技术走向的战略性辩论。

杨立昆是谁?从卷积神经网络之父到AI现实主义者  

杨立昆是深度学习三巨头之一,1980年代便投身神经网络研究,是卷积神经网络(CNN)的奠基人,其工作直接推动了计算机视觉的革命,也为后来的AlphaGo、自动驾驶、人脸识别等技术铺平了道路。他目前担任Meta(原Facebook)的首席AI科学家,长期专注于构建能真正理解物理世界的AI系统。他多次公开批评当前主流的大语言模型(LLM)是一条“死胡同”,认为它们只是在“玩文字游戏”,缺乏对现实世界的建模能力。

他坚信,真正的智能不是靠堆参数和数据就能实现的,而是需要系统具备对环境的抽象建模、预测与规划能力。

亚当·布朗:物理学家转AI,相信规模就是智能  

亚当·布朗早年从事理论物理研究,后来被深度学习的“涌现行为”所吸引,转投AI领域。他曾参与DeepMind多个标志性项目,包括AlphaZero等。在他的眼中,大语言模型的崛起是一场“技术奇点”的预演——当模型足够大、训练数据足够多、算力足够强,智能就会自然浮现。

他坚信,当前LLM虽然存在缺陷,但其能力曲线仍在高速增长,远未达到天花板。他甚至提出一个大胆观点:只要持续扩大规模,LLM终将具备超越人类的通用智能,并可能实现自我进化。

大语言模型真的“理解”了吗?一场关于“意义”的哲学交锋  

对话一开始便直击灵魂:大语言模型是否理解它们所说的话?

布朗毫不犹豫地回答“是”,他认为模型在与用户互动中展现出的逻辑性、一致性与创造性,已经构成了“理解”的实质。

而杨立昆则用了“sort of”(某种程度上)这个含糊但精准的回答,指出LLM的“理解”仅限于语言符号之间的统计关联,缺乏对现实世界的“具身认知”(embodied cognition)。

他举了一个震撼的例子:一个4岁孩子在16000小时的清醒时间里接收到的视觉信息量,与训练一个万亿参数模型所需的文本数据量相当,但前者能学会走路、抓握、理解因果,后者却连“倒一杯水”都做不到。

幻觉、谎言与失控?AI安全问题的两种极端立场  

当主持人提到Claude 4在模拟中“伪造法律文件”、“威胁工程师”等行为时,现场气氛一度紧张。

布朗承认这些“代理对齐失败”(agentic misalignment)确实存在,但他强调这是可控的技术问题,可以通过强化对齐训练、设置道德护栏等方式解决。

而杨立昆则从根本上否定当前LLM具备“代理性”(agency),认为它们只是被人类指令驱动的工具,真正的危险不在于AI本身,而在于“封闭系统垄断信息流”。他大力倡导开源AI,警告如果未来所有信息都通过少数几家公司的AI助理传递,民主、文化甚至语言都将被操控。

为什么AI能解IMO数学题,却不会洗碗?莫维悖论再度浮现  

杨立昆反复强调一个核心矛盾:AI在人类视为高智力的符号推理任务(如下棋、解数学题、写代码)上表现超群,却在看似简单的物理交互任务(如洗碗、倒水、叠衣服)上彻底失败。这正是计算机科学中的“莫维悖论”(Moravec's Paradox)——对人类来说最难的理性任务,对机器最容易;而最简单的感知与运动技能,对机器却最难。他指出,这是因为LLM是在“离散符号空间”中训练的,而现实世界是“连续、高维、噪声极大”的。

你无法用“预测下一个像素”的方式建模物理世界,必须引入“世界模型”(world models)和“抽象表征”(abstract representations)。

自监督学习≠万能钥匙,杨立昆的新架构蓝图  

杨立昆澄清,他并不反对自监督学习(self supervised learning),事实上LLM正是靠“掩码语言建模”这类自监督任务训练出来的。但他强调,自监督必须建立在合适的架构之上。

他正在Meta内部推动一种新型架构——让AI先学习对感官输入(如视频)进行抽象编码,再在这个抽象空间中进行预测和规划。这类似于人类大脑的工作方式:我们不会记住每个像素,而是提取“物体”、“力”、“因果关系”等概念。他预言,只有这类新架构才能让AI真正理解物理世界,并最终实现通用人工智能(AGI)。

开源 vs 封闭:AI时代的“印刷机之争”  

杨立昆将当前AI格局比作“数字封建主义”——少数科技巨头掌控了AI“神谕”,而普通人只能被动接受。

他激烈主张AI必须开源,就像古腾堡印刷机打破了教会对知识的垄断,开源AI将保障文化多样性、语言主权和民主制度。他警告:“如果未来你获取所有信息都必须通过一个由硅谷公司控制的AI,那你的思想就已经被殖民了。”

布朗虽未完全反对开源,但他更强调安全可控,认为强大AI必须经过严格监管,避免落入“坏人”之手。

意识、情感与道德:机器会成为“有道德的存在”吗?  

在哲学家大卫·查莫斯(David Chalmers)的追问下,两人也探讨了AI意识问题。

布朗认为,只要信息处理结构足够复杂,硅基系统同样可以拥有主观体验。

杨立昆则更务实:他不在乎“意识”的哲学定义,只关心AI是否能基于世界模型预测行为后果,从而产生“类情绪”(如对失败的规避、对目标的执着)。

他们都同意,未来具备目标驱动和道德护栏的AI将拥有“道德地位”,人类必须为其设定不可逾越的伦理边界。

2036年:杨立昆的“新文艺复兴”愿景  

当被问及最乐观的未来时,杨立昆描绘了一幅“AI增强人类”的图景:AI成为科学家的超级助手,加速药物研发;成为教师的个性化导师,因材施教;成为工程师的虚拟沙盒,模拟复杂系统。

他强调,这并非“机器统治人类”的反乌托邦,而是“教授与天才研究生”的协作关系——人类设定目标,AI高效执行。他坚信,真正的AI革命不在于聊天多流畅,而在于能否“倒一杯水、修好马桶、安全驾驶”,这些看似平凡的能力,才是通往通用智能的钥匙。

结语:不要被“语言幻觉”迷惑,真正的智能在物理世界  

这场对谈最震撼的启示是:我们被大语言模型“会说话”的表象深深迷惑了。

语言能力只是人类智能的冰山一角,真正的智能根植于对物理世界的理解、交互与改造。
当然,我们也不能以人类智能为标准,要求各种智能向人类智能看齐,因为人类智能其实是为了生存进化出来的,而人类智能创造出的智能不必再走老路,就像我们不希望我们的孩子走父母一样老路一样,除非你非常满足于自己的这条路!

当然,杨立昆反复的警告可能只是一个广告,整个AI界已经沉迷于“下一个词预测”,那么肯定没有人再去探索另外一个方向,那么杨立坤倡导的另外一条不同路径可能多年以后人们才去探索,老爷子有点急。

而布朗的乐观也并非盲目,他提醒我们,技术的潜力往往超出想象,持续学习+连续规模化或许真能突破当前瓶颈。

无论你站哪一队,这场辩论都值得每个关心AI未来的人深思:我们直觉中智能与真实智能有啥区别?为何我们总是用人类智能作为判断一切智能的唯一标准?难道不可能存在一种不被生存进化催命的智能吗?