形成和抽象概念是人类智能的核心:
这些能力使人类能够理解和创建世界的内部模型——通常涉及物理知识或经验,例如“某物之上的某物”——并通常通过类比使用这些模型来理解新信息,并决定在新情况下如何表现。
在其最具体的定义中,一个物体或地点 "在 "另一个物体或地点之上是指一种空间配置("猫在电视上面"),但这个概念可以以任何方式抽象出来:在社会等级制度的顶端,在一个人的游戏的顶端,在世界的顶端(即非常高兴),保持在工作的顶端,在一个人的声音的顶端唱歌,出生在一个十年的顶端,等等。
概念是对一个类别产生无限概念化的能力或倾向。
产生这种概念化的驱动力是类比:例如当我们将“在……之上”的空间概念映射到时间、声音或社会概念时。
一个概念是一组类比。
抽象和推理语料库
由François Chollet创建的Abstraction and Reasoning Corpus抽象和推理语料库,简称ARC。
在他描述ARC目标的论文中,Chollet引用了发展心理学家Elizabeth Spelke关于 "核心知识系统 "的工作,这些系统在人类(可能还有一些非人类动物)中是天生的或早期发展的。 这些核心系统包括。
- 客体性objectness:关于世界可以被解析为具有某些物理特性的物体的知识。
- 数字性numerosity:关于小数量和 "最小"、"最大"、"大于"、"小于 "等概念的知识。
- 基本的几何学和拓扑学,如对线条、简单形状、对称性、包含性和复制的认识。
- 代理人和目标:知道一些实体是代理人,他们有自己的意图并为实现目标而行动。
Chollet的ARC任务看起来很美,解决起来也很有趣(而且对人类来说往往相当有挑战性)。 但ARC领域的重要之处在于,它以一种丰富和开放的方式捕捉到了抽象和类比的重要方面,但又完全明确了解决问题需要哪些先验知识。 此外,该领域从根本上讲是关于 "少量学习 "的--每个任务只有几个例子,必须从中推断出一个抽象的规则。
我认为,一个能够解决ARC领域一般问题的人工智能系统,将是朝着能够在现实世界中实现类似人类的抽象和类比的系统迈出的重要一步。
大型语言模型能否解决ARC任务?
关于ARC和其他理想化领域,经常出现的一个问题是:今天的大型语言模型还不够聪明,不能执行这些任务吗?
答案是 "不"。
ARC任务是可视化的,所以不适合使用GPT-3这样的纯文本语言模型。
人们可以通过用英语向语言模型描述问题来 "作弊",但当然,让人创建这样的描述相当于预先解决了任务的很大一部分。
这就是说,即使向他们提供了这样的描述,语言模型也不一定能解决这个任务;众所周知,他们在空间推理任务中表现很差。 作为一个例子,我给ChatGPT和GPT-3都提供了图3中任务的英文描述,它们都没有正确地解决这个任务。
这种性能有可能随着更大的模型而得到改善,最终多模态 "基础 "模型将能够解决此类问题,但我仍然持怀疑态度。 我听说下一代GPT模型(以及其他公司的语言模型)将是多模态的(能够同时处理文本和图像),因此我们可能在不久的将来能够在ARC任务上测试它们。