AI教父:大模型和人一样懂语言,单词是高纬积木

在今年由国际安全与道德人工智能协会主办的一次会议上,“人工智能之父”之一 杰弗里·辛顿 (Geoffrey Hinton) 做了一场非常引人注目的演讲。他抛出了一个颇具争议的观点:ChatGPT 和其他大语言模型(LLM)对语言的理解方式,和人类的理解方式在本质上并没有那么不同。

换句话说,机器不再只是“自动补全输入”的高级版,而是正在以某种“类人”的方式去构建意义。这听上去既令人兴奋,也有点可怕。



两种人工智能范式的较量:符号 vs. 神经网络

过去 70 年,人工智能的发展有两条主线:

1. 符号主义(Symbolic AI):依靠逻辑和规则,把知识写进系统,强调推理与形式化。
2. 连接主义(Neural AI):依靠神经网络和学习,让机器从数据中自动提炼规律。

从 2012 年 AlexNet 在图像识别上的突破开始,神经网络彻底占据了上风。今天的 GPT-4、Claude、Gemini 等,都是建立在深度神经网络(尤其是 Transformer 架构)之上的成果。



单词是“千维乐高积木”

辛顿 用了一个生动的比喻:

* 在人类理解中,单词不是僵硬的字典项,而像高维空间中的积木
* 每个单词在使用时会根据上下文Context“变形”,并通过注意力机制与其他单词“握手”。
* “理解”就是把这些高维积木拼接起来,形成一个合理的语义结构。

这和我们大脑中语义网络的运作方式,其实有异曲同工之妙。



LLM 不只是“自动完成”

很多人批评 ChatGPT:“它只是在统计下一个词的概率,本质还是个预测器。”
但 辛顿  强调,这种说法太过简化。

LLM 并不存储一张“巨大的词表”,也不是把语料死记硬背。它们的知识被压缩进数以亿计的参数(权重)中,这些参数编码了语义特征的复杂交互。换句话说,知识是存在于权重里的,就像人类大脑的记忆存储在突触连接里。



“幻觉”并非缺陷,而是类人特征

人们常批评 AI“编造事实”,称之为“幻觉”。但 辛顿 指出:我们人类其实也一直在“幻觉”。

* 我们的记忆不是录像机,而是重构的。
* 当你回忆童年一件事时,很多细节其实是大脑即时“编”的,只是你自己没意识到。
* 唯一的区别在于,人类通常更善于判断自己是不是在瞎编,而 AI 还缺乏这种“元认知”。



可怕的一点:AI 的“超共享能力”

人类知识的传递受限于语言、文字,一个句子只有几百比特的信息量。而神经网络之间可以直接共享 权重和梯度,一次传递就是数万亿比特。

这意味着:

* GPT-4 之类的模型,能在规模上累积起远超个体人类的知识量。
* 多个代理之间可以“瞬间共享经验”,远远超出人类学习和交流的效率。

这也解释了为什么 LLM 能在某些领域表现出超越个体专家的能力。



LLM 与神经科学:启发而非复刻

这里必须澄清一个常见误解。虽然 LLM 是“神经网络”,但它并不是“用神经科学直接建造的”。

* 人工神经元 ≠ 生物神经元
* 人工突触 ≠ 生物突触
* 没有真正的动作电位、神经递质、胶质细胞等复杂机制

LLM 是一种纯粹的数学结构,只是借鉴了大脑的一些抽象概念

研究人员会用神经科学的方法来分析 LLM,比如画出“AI 的脑图”,或者借鉴大脑的模块化设计去改进模型。但这并不意味着它们就是生物神经网络的真实模拟。



总结:理解的边界

辛顿 的演讲,传递出几个关键结论:

1. LLM 对语言的处理方式,和人类并非天壤之别。
2. 幻觉并非错误,而是理解和记忆的副作用。
3. AI 的知识共享效率,可能带来远超人类的集体智慧。
4. LLM 不是神经科学的直接产物,而是数学灵感的产物。

所以,我们可以说:
现有的 LLM 是“受神经科学启发”,而不是“神经科学复刻”。
真正基于“神经学数据”的模型,属于计算神经科学或脑模拟的研究范畴,比如脉冲神经网络。

这背后更大的问题是:如果机器的“理解”和我们的理解在本质上越来越接近,我们还能坚持“理解”是人类独有的标签吗?