人类的错误思维阻碍了人工智能发展 - Carlos E. Perez


深度学习的价值在 2012 年开始显现,当时它开始在图像分类基准测试中名列前茅。其有用性的证明是其执行图像分类能力的结果。

这让每个人都兴奋不已,因为分类被认为是认知的核心。

我们认为分类是核心,因为我们的理念是基于事物,它是基于物质的。它不是基于过程和关系。

当发现对抗性攻击时,深度学习对其观察结果进行准确分类的局限性就暴露出来了。
到目前为止,这个问题从未得到解决。它也许永远不会,因为它根本上是不可能的。但许多人不明白为什么这是不可能的。

这是因为通用智能AGI不是基于分类. 解决分类问题不会形成通用智能AGI。事实上,这个问题是无法解决的,因为这个问题是由于我们的物质形而上学而产生的幻觉。

我们混乱的世界无法整齐地排列成等级类别。这解释了为什么我们几乎放弃了组织书签的方法。维护本体比我们从中提取效用需要更多的工作。

我们衡量深度学习进展的方式非常奇特。我们经常自欺欺人地认为我们可以发现一种可以指示进步的客观数学度量。如果没有这个,我们将我们的衡量标准基于有限的数据集,就像基准所做的那样。

这也被打破了,因为 DL 算法学会了专门应付指标(参见:#古德哈特定律)。

我们最终会遇到一场永无止境的指定目标游戏,而这些目标不断被深度学习系统所规避,这些系统总是在寻找最简单的方法来玩弄指标。

我们也没有意识到深度学习系统创造了不同于人类的归纳和流畅性解决方案。深度学习的人工直觉不像人类的直觉。

今天,我们拥有基于变压器和扩散架构的下一级系统。这些是生成模型,可以生成看起来流畅度让人难以接受的文本和图像。我们看到了对 AGI 迅速出现的真正恐慌迹象!

与过去的卷积网络不同,这些生成系统的能力不是通过分类排行榜发现的。相反,它们是由人类“盯着”结果发现的。他们的表现超出了我们发明数学度量的能力!

生成系统避免了分类问题,因为它们根本不尝试这样做。这些语言模型利用嵌入在我们语言使用中的统计措施。这些系统发现了人类话语中的规律性。

作为副作用,生成语言系统能够进行概念混合。扩散架构是下一件大事。我会争辩说,如果没有大型语言模型的先前发明,我们可能还没有意识到它的用途。

当您使用像 Dall-E 这样的工具时,您会开始了解概念的可组合性。人类的认知会推断出诸如“椅子性”和“鳄梨性”之类的概念,以便我们对适当的混合类型有一种感觉。

概念混合是人类思维的基础。目前对 AGI 出现的恐慌是语言和扩散模型正在模仿我们执行此操作的认知能力。吓坏了所有人!

人类的认知并不围绕分类,而是基于即时的概念混合。道格拉斯·霍夫施塔特 (Douglas Hofstadter) 认为这是类比。

深度学习通过利用在文本和图像中发现的人类生成的工件来引导其功能。但我们不应该被这种模仿所迷惑。它只是在复制我们的习惯。它不是在复制人类的认知。

神经网络分类器无法解释它们推断分类的原因。他们可以区分狗和猫,但无法解释原因。这就是丹尼尔·丹尼特所说的没有理解力的能力。

像 GPT-3 或 Dall-E 这样的深度生成器可以解释到什么程度还有待商榷。这两个系统似乎都具有解释能力。但这就像裂脑患者可能会让他们的左脑想出与现实脱节的解释。

我们不应该将流利程度误认为能力。我们的文明向我们灌输了重视口头能力而不是实际理解的能力。
也许是因为几个世纪前,文明倾向于使用物质形而上学来管理其人口。我们走错了路。也许我们应该改为听取过程哲学家的意见。