廉颇老矣,AI教父杨立昆掉在认知陷阱里出不来了

banq


AI教父杨立昆(Yann LeCun)最近在访谈中说:我们无法仅通过扩大 LLM 规模就获得人类水平的人工智能。他一直多次唱空语言模型,这次是否猜中了,还是类似上海爷叔对股市的预测?

在完整的播客里,他解释说,他认为“推理”是建立在 LLM(大型语言模型)之上的工具,也承认它能提高结果。但他批评这种方法效率太低,没法真正实现 AGI(通用人工智能)。相反,他相信会有不同的、更高效的模型(不是 LLM)更快出现,并为 AGI 提供更可行的路径。

杨立昆是深度学习和卷积神经网络的原创论文作者,但是却有一堆过去的记录证明:他说过的话最后都被证明是错的。

比如他说过“自监督学习能解决所有问题”、“CNN 就是视觉的全部”、“Transformer 没啥用,只是昙花一现”(结果它们后来火得不行),还有“强化学习已经没戏了”(结果后来我们把强化学习和大型语言模型结合起来了)。

他甚至还说大型语言模型(LLM)已经到顶了,快不行了。结果两个月后,o1 发布了,证明 LLM 还活得好好的。

就算你是某个领域的大牛,也不代表你就能准确预测人工智能的未来。他说的这些不是研究结论,只是个人观点。观点嘛,尤其是关于 AI 未来的,真的只是观点而已。他没法用科学的方式证明 LLM 永远达不到通用人工智能(AGI)。科学可不是这么玩的。

就连 AI 领域的大佬们,比如 Hinton辛顿,也经常做出完全相反的预测。

所以,如果光靠 LeCun 的权威就能定论,那其他 AI 先驱不同意的时候我们该听谁的?顶尖专家们意见不一,这本身就说明这个问题还没解决,不是板上钉钉的事。我个人觉得,把开放性问题当成已经解决了的问题来回答,可能是最不科学的做法。所以,就算你是爱因斯坦,我也会怼你。

说到底,科学是靠实验结果推动的,不是靠谁嗓门大或者谁说得自信。

除非 杨立昆LeCun 能拿出经过严格同行评审的证据,证明 LLM 根本不可能实现 AGI,否则他的话只是猜测和意见,谁都可以质疑。

网友1:
我觉得人工智能专家之间的根本分歧,其实是因为他们对“认知”和“创造力”有不同的哲学看法。简单来说,这种分歧就是大家对“什么样的智能是必要的”以及“什么样的结构能产生这些智能”有不同的想法,而这些想法会影响他们分析问题的所有角度。

专家们的分歧核心,并不是关于“智能会不会从某些结构中冒出来”
——这一点大家都同意。
真正的分歧在于:哪些智能会从哪些结构中冒出来

杨立昆完全相信神经系统中的智能是可以“冒出来”的(他自己的研究也证明了这一点)。但他不相信某些关键的 AGI 组件(比如能理解物理因果关系的复杂世界模型)会从“下一个标记预测”这种架构中自然冒出来,不管规模有多大。

在他看来,这些组件需要完全不同的架构基础,就像他提出的“自主机器智能框架”那样。

另一方面,像 Hinton 这样的研究人员认为,人类的认知本质上就是一种复杂的模式识别和预测——和 LLM 做的事情没有本质区别,只是更高级而已。

他们认为,我们已经在 LLM 中看到的一些“冒出来”的能力(比如推理、抽象、规划)是一个连续的过程,最终会通向通用智能。

从这个角度看,即使是世界模型,最终也可能从通过语言和其他形式整合大量物理现实知识的系统中“冒出来”。

这里可以用曼德布洛特集来打个比方:
一个非常简单的方程(z = z² + c),当你把它重复计算几百万次时,会产生无限的复杂性和结构,而这些结构是无法从方程本身直接预测出来的。

同样,LLM 中的“简单”下一个标记预测也会产生一些“冒出来”的能力。

核心问题是:这些能力能不能扩展到智能的所有方面?还是说,LLM 的架构本身有根本的限制?
(以上是和claude 3.7 长时间对话的一部分。)

网友2:
杨立昆 确实是深度学习和卷积神经网络的原创论文作者,他几乎发明了这个领域。

问题是,杨立昆 还活在过去(上下文陷阱)。
科学发展需要不断淘汰旧的东西,这是普朗克早就说过的道理。就算你是某个领域的资深专家,也不代表你对现在发生的事情有特别深刻的见解。

杨立昆总是说我们应该把 80 年代和 90 年代的东西重新捡起来。但问题是,那些东西效果并不好。他对新事物总是持怀疑态度。

DeepSeek招聘的是本科生和研究生,而不是那些所谓的专家,这种做法反而取得了成功。

年轻人能跟上节奏,他们比 Meta 的人更厉害,甚至打败了他们。

这充分说明 杨立昆 并不是你想象中的那种权威人物。他已经老了,跟不上时代了。他已经过时了。

没错,40 年前他确实做出了一些了不起的贡献。但那是 40 年前的事了。从那以后,已经过去了 40 年