新研究:大脑语言有形式和功能两种,前者更像大模型

发表在著名《Cell》最新文章《在大型语言模型中分离语言和思维》认为:
大型语言模型 (LLM) 是迄今为止所有模型中最接近掌握人类语言的模型,但对其语言和认知能力的看法仍然存在分歧。

我们使用下面这两个概念之间的区别来评估 LLM:
1、形式语言能力:一种正确的语言形式,代表语言规则和模式的知识
2、功能语言能力:理解和使用世界上的语言,能使用语言实现世界上的目标。

形式语言能力(正确的语言形式)和功能语言能力(使用语言实现世界上的目标)是不同的认知技能。

我们将这种区别建立在人类神经科学的基础上,该科学表明形式能力和功能能力依赖于不同的神经机制。

  • 人类大脑包含一个区域网络,选择性地支持语言处理(形式语言能力),但不支持逻辑或社会推理(功能语言能力)等其他领域。

尽管 LLM 在形式语言能力方面表现出色,但它们在功能语言能力任务上的表现仍然参差不齐,并且通常需要专门的微调和/或与外部模块耦合。

  • 2010 年代后期,在词汇预测任务上训练的大型语言模型开始在形式语言能力方面取得前所未有的成功,在可能需要层次结构和抽象的语言任务上表现出色。
  • 对于大型语言模型来说,在需要功能性语言能力的任务上实现一致的表现更加困难,并且通常涉及超出下一个词预测的增强。

总之:

  • 认知科学和神经科学的证据可以阐明大型语言模型的能力和局限性,并为更好的、类似人类的语言和思维模型铺平道路。

网友:
1、人工智能也在思考,只是思考方式和我们不一样。

2、你的整个大脑是一个使用类似transformer架构的神经网络。
大脑中存储的知识是以潜在格式存储的,而不是以文字形式存储的。(不过,我们通过上下文将这些嵌入向量链接到文字上)
一切都与上下文context有关。

你将一堆向量匹配在一起(在神经网络中,你可以想象 Vector5000 而不是“Vector3 x,y,z”)
你头脑中的概念和神经网络中潜在空间中的概念类似于 500 维空间中的“点”。

它们之所以有意义,是因为它们与许多其他点进行了比较、相互作用并且并存,从而为这些点提供了上下文Context。

我们所理解和知道的大部分内容似乎都是使用这些点的副产品,这些点可以相互作用,通过传感器馈送构建我们的现实,也就是我们的摄像头/眼睛和其他感官馈送:听觉/味觉/触觉/进入大脑的其他任何东西,比如环绕我们肠道的 200 米参数神经网络,它直接受到肠道细菌的影响,或者我们腿部的专用神经网络,让我们在思考和做其他事情时能够自主行走

我们头脑中的所有向量概念都负责保存我们拥有的大部分知识……尽管它以一种有趣的方式存储,其中神经元和神经连接负责了解概念。它的工作原理是“这组神经元只有在遵循这种模式的情况下才会以这种方式转换这组信息。”

这些结构不关心它是单词还是感觉还是其他什么——你可以声称它不是语言,但语言就像是我们拥有的最接近潜在表征的东西,这是最重要的部分。

仅仅因为某人不能理解单词并不意味着他们没有使用标记集合进行思考,这只是意味着那些标记不是单词 - 它们是图像或其他感官数据。