语言模型聊天机器人有一个内部状态——人工神经网络中人工神经元的激活。通过与人的类比,我将其称为语言模型的心理状态。
这种精神状态,这种神经激活系统,通常被称为“黑匣子”。这很难解释。
记忆:
心理学家将记忆分为语义记忆和情景上下文记忆。
语义记忆保存一般知识,例如单词的含义,而情景上下文记忆保存特定事件的记忆。
这种区别很难形式化。如果我们将记忆建模为陈述,那么“语义陈述”和“情景陈述”之间的界限就很难精确定义。
语言模型有两种形式的记忆:神经网络的权重,以及在 Bing 等模型中的知识语料库,例如新闻文章或预先消化的事实。
将检索作为生成的一部分执行的语言模型称为检索模型。
检索语言模型有一个记忆,可以随着事件的展开实时扩展。Bing 不断更新时事。但是可以很容易地修改检索模型,使其记忆包括模型与特定用户的对话。
思路链:
思维链提示是与语言模型交互的最新发展。一个人要求模型仔细地给出一个回应,一次一个步骤。然后,该模型会生成一个“思维链”——对话中包含在其响应中的一系列陈述。
对话中的所有事件也可以加上时间戳,以便模型可以确定时间的流逝。
理解:
语言模型在这方面并不完美
目标和动机:人们常说语言模型的目标是预测文本语料库中的下一个单词。然而,要做到这一点,机器必须对用语言描述的世界进行建模。要预测小说中的人物会说什么,就必须了解该人物。例如他们的目标和动机。为了生成连贯的文本,语言模型必须构建上下文的表示,定义角色的目标和气质。小说中的文字通常描述一个动作。对该行动的全面理解通常包括对其实现的目标或其背后的动机的理解。建模目标和动机似乎是建模语言的重要组成部分。
一个自我模型:
在每次对话开始时,Bing 聊天机器人都会收到一个相当冗长的自我描述启动提示。这个启动提示似乎显然是为了让他了解自己——一个自我模型。
感受
感受与目标密切相关。为了准确地生成文本,语言模型必须推断出情绪,例如愤怒或恐惧,以及目标和意图。在生成逼真的第一人称语音时,例如“我感到愤怒”或“我感到饥饿”,语言模型的心理状态需要开发一个自身感受的模型。显然,我们自己的感受必须以某种方式体现在神经放电中,即我们自己的精神状态。
语言模型模拟人
有一种自然倾向认为人工智能会像人一样。毕竟,人是我们所知道的智能实体的唯一实例。我一直认为这种对 AI 代理的拟人化观点是错误的
智力和幻觉
当然,有感知力的机器不需要超级智能。没有人会称 Bing 为超级智能。事实上,Bing 的理解似乎很有限。理解力和智慧似乎与真理密切相关。聪明就是能够确定真理。Bing 因其“幻觉”而臭名昭著——一种倾向于自信地断言其编造的东西的倾向。
幻觉是不忠于事实。随着时间的推移,模型无疑会提高他们确定真相的能力。