思想本身就是一种语言的涌现?

萨皮尔-沃尔夫假说(Sapir-Whorf hypothesis)认为,一种语言的结构和词汇可以塑造语言使用者对世界的感知和概念。

前苏联心理学家列夫-维果茨基(Lev Vygotsky)认为,虽然思维和语言开始时是不同的系统,但在儿童成长过程中它们会融合在一起。他认为,没有语言的中介,复杂的抽象思维是不可行的。

米歇尔-福柯(Michel Foucault)和雅克-德里达(Jacques Derrida)等哲学家强调了话语(有别于语言)的构成力量。在福柯看来,话语划定并限制了我们可用的思想范畴。

此外,马丁-海德格尔(Martin Heidegger)认为,语言通过我们 "说话",而不是相反。在他看来,语言是 "存在之屋":它塑造并促进我们对世界的理解。

当然,许多动物都会推理,但没有一种动物能像人类那样深入而复杂。

这表明,语言的建构对于推理的关键作用可能比我们意识到的更大。虽然先天智力对于利用语言工具至关重要,但这也是一种后天学习的技能。

连贯的语言本身就是推理
这意味着语言不仅是推理不可或缺的组成部分,而且也许是调解和改进推理的一种奇妙方式?

也许高级或复杂的推理是语言的一种涌现 属性。

也就是说,人类及其进行任何复杂推理的能力,实际上就是语言。

那么我们为什么不去研究语言的产生呢?


语言大模型不是鹦鹉学舌
它们可以为人类的推理提供启示。

从本质上讲,语言大模型LLM 可以被视为加权统计模型,能够生成令人信服的文本。这让一些人给它们贴上了 "随机鹦鹉 "的标签,因为它们并不像人类那样进行推理,或者很多人认为它们根本就不会推理。

一些专家认为它们缺乏 "世界模型",或认为 LLM 缺乏意义和自我意识等属性,而这些属性是以人为中心的推理理解,与人类意识密切相关。

其实,我们可能正在见证一种新的智能形式,它挑战了我们的基本信念,即智能必须与人类认知相似才能被认定为 "理性"。

随着语言大模型 LLM 的发展和模型规模的不断扩大,也许我们根本不应该困惑为什么我们会看到这些与推理有关的 "突现属性"。

智能建模
建模===预测===控制
压缩===智能===预测

数学早已告诉我们这一点。
LLM 可以预测复杂的语言,因此它们是智能的。

人工神经网络实际上理解输入并使用智能来产生输出,一次一个令牌。
人工智能知道它要去哪里,你在它的立即输出中看不到它,并且它会在每次推理时重新初始化。
这实际上可能类似于你一次说一个词时大脑中的推理方式。

人工智能经过训练可以产生完全令人满意的输出,而不是单个标记。

这本身就需要在更深层次上抽象和理解概念