如何用大脑匹配方式解决AI问题?
约翰·鲍尔的《如何用我们的大脑解决人工智能》是从认知科学的角度对人工智能进行的开创性探索。约翰·鲍尔是一位认知科学家、计算机工匠,也是当今人工智能领域的领先创新者之一。鲍尔痴迷于解开人类认知的奥秘,他基于他的 Patom 大脑理论开发了世界上第一个人工智能语言系统——该模型解释了人类大脑功能的复杂性并为机器模拟了它。
凭借三十多年的研究和相关领域的多个学位,鲍尔向读者介绍了他革命性的 Patom 大脑理论,该模型反映了人类大脑通过模式匹配来获取语言、解决复杂问题和学习的方式。这种前沿方法有望通过关注理解而不仅仅是计算来重新定义人工智能的格局。
这篇题为“匹配而非处理会消除搜索”的文章讨论了人工智能 (AI) 的基本问题,并强调在寻求具体解决方案之前解决这些基本问题的重要性。作者将过时的科学模型(如宇宙的地心模型)与人工智能目前的局限性进行了类比,指出人工智能中的许多概念已有 60 多年的历史,但仍未得到解决。
文章的要点包括:
- 历史背景:作者将过时的天文学本轮模型与人工智能的现状进行了比较,暗示正如天文学通过采用日心模型而取得进步一样,人工智能也需要类似的范式转变。
- 计算功能与大脑功能:本文将专为计算任务而设计的数字计算机与为语言理解而进化的人脑进行了对比。这一区别凸显了当前人工智能模型的局限性,这些模型模仿的是计算过程,而不是认知功能。
- 记忆问题:作者认为,记忆虽然对数字计算机至关重要,但对大脑模拟和人工智能开发却带来了重大挑战。这些挑战源于自 20 世纪 50 年代以来一直没有重大发展的计算范式。
重点
- 大脑进化是为了理解语言,而计算机则是为了解决计算问题而设计的。
- 人工智能大脑的更好模型将数字计算机中的处理模型移除,代之以模式匹配模型。
称之为Patom 理论。
模式可以根据经验组合成多感官指涉物、这些指涉物的交互(谓词)以及它们的序列(事件)。
为了证明这一点,我将回顾语言的符号学模型,以及它如何结合视觉(阅读)、声音(听觉)或盲文中的触觉等个体感官来进行语言互动,包括英语中常规动词和不规则动词符号类型的区分。
然后通过删除处理模型,引入一个不需要搜索的更简单的模型。
Patom 理论的主要贡献
模式匹配范式:与将大脑视为处理机器的传统 AI 模型不同,Patom 理论认为大脑主要作为模式匹配系统发挥作用。这意味着识别是通过存储的模式而不是复杂的算法进行的,这表明 AI 应该模仿这种方法,以便在图像和语音识别等任务中获得更好的结果。
广义信息存储:该理论强调了特定经验如何为一般知识提供信息。例如,Patom 理论主张从具体实例开始构建一般概念,而不是像传统 AI 那样先定义一般类别。这种方法解决了一般定义不足或不可能的问题,从而减少了对程序员提前定义类别的依赖。
学习和记忆机制:Patom 理论将学习描述为存储模式(称为“patom”)的过程,而不是计算结果。例如,儿童通过识别与数字相关的视觉模式而不是仅通过计算来学习数学概念。这种多层次的学习结构可以更直观地理解复杂的主题,这与人工智能传统上使用的线性处理模型形成鲜明对比。
解决认知限制:Patom 理论通过关注大脑如何根据经验而非严格的规则对信息进行分类和检索,提出了解决现有 AI 系统面临的认知限制的解决方案。这种方法可以带来更具适应性和弹性的 AI,从而更好地处理现实世界的复杂性
对人工智能发展的启示:
- 自然语言处理:通过将语言理解为与感官体验相关的一系列模式,人工智能可以提高其理解和产生类似人类反应的能力。
- 图像识别:利用模式匹配技术可以模仿人类根据先前经验识别物体的方式,从而提高图像分类系统的准确性。
- 自适应学习系统:实施多层次学习策略可以使人工智能系统更有效地适应新信息,而无需大量的再训练。
案例一:“What is eaten by lions? 狮子吃什么?”(英文句子)
在英语句子中,您可以看到按 what/is/eaten/by/lions 顺序排列的符号。 在 RRG 中,谓语决定参数,因此吃者(狮子)必须符合谓语(吃)。
通常,这一步同时还能消除谓词的意义歧义,因为那些不允许有参数(狮子)的谓词被排除在外。 排除示例:
- "风吃山"--狮子不能吃山。
- "酸吃钢筋"--狮子不能吃这种东西。
谓词有一个集合和序列的性质,它们的最终表示会失去一些元素,因为它们与参数不兼容。 例如,狮子吃东西时会咬、撕和吞。 但风吃东西时,由于没有牙齿,所以不会咬人!
没有了模棱两可的模式,我们就可以在机器上吞噬语言,保持跨语言的意义,并随着时间的推移不断增加语言,让世界变得更小,没有语言障碍。
"狮子吃掉了什么?"可按此细节分解(解释句子的技术分解)为疑问句 "被吃掉了",然后添加前核槽 "什么 "和标记参数 "狮子"。 短语转换后,语义集就得到了验证。
案例2:“5除以5等于多少?”(英文句子)
在这个句子中,数学发挥了作用。同样,第一个例子中的语言也需要用来识别短语。数学是“5 除以 5”。这个短语是一个参考短语 (RP)。谓词决定它们的参数,在这里你需要用一个数字除以另一个数字。这是一个有效的例子。预核心位置再次由“什么”填充。
和往常一样,我们可以使用各种语言工具来理解这句话的含义。例如,“5 除以 5 等于多少”(删除核心槽前的问题)和“5 除以 5 等于多少”(缩小范围)。
案例 3:“5 加一辆汽车等于多少?”(毫无意义)
在这种情况下,谓词的参数不成立,因此该句子看起来毫无意义。如果将“汽车”改为数字,例如 4.5,该句子就有意义了:“5 加 4.5 等于多少?”
您也可以改变谓语的含义,例如:“一个家庭加上一辆汽车等于多少?”(它似乎指的是组合,而不是加法)。
最终,大脑问题是我们如何学习谓词及其论据的如此不同的解释。
形式与内容分离
- 该方法是将语法(特定于语言的单词和词汇序列)与语义(与语言无关的谓词及其参数的组合)分开。
这是可以学习的,因为语法在语言中被反复使用,而语义的验证独立于语法。您可以在相关的美国专利中阅读有关此内容的详细信息,该专利对此进行了更详细的说明
我经常说,计算机处理范式产生了搜索的需求。
这也似乎是当今计算机缺乏类似大脑的功能(精确的视觉、事件跟踪、对话等)的主要原因。
大脑和计算机之间的关键区别:计算机存储引用任意数据模型的顺序程序,而大脑存储分层模式并将它们连接在一起作为模式原子。
在大脑中,时间是活动集的序列,而在数字计算机中,时间是与某些数据记录相关的内存位置。
这是源自 Patom 大脑理论的理论神经科学,但如果它是正确的,那么实现复杂事件的许多方法就变成了模式原子pattern-atom链接的问题,而不是设计新的数据库schema结构模式。
数字计算机可以通过打开整个内存位置集(例如互联网)来查找匹配的字符串序列,从而找到某个单词。如今,在互联网规模上,网络爬虫和索引通常可以有效地完成这一任务。
基于 Patom 的系统则截然不同。你可以从符号开始,交叉所有符号以找到它们全部使用的位置,然后限制到所需的特定序列,从而找到那个单词序列。