GPT-3通过图灵测试已经不稀奇,但能通过Winograd测试吗?能真正识别推断语言的上下文场景吗? -Tannya

20-09-15 banq

为了对该主题进行有意义且细微的讨论,我们首先需要定义智能。人工智能研究人员Max Tegmark提供了最简洁明了的智能定义:

智力是完成复杂目标的能力。

人工智能可以定义为计算机科学的广阔领域,它使机器看起来好像具有人类智能。当然,今天的讨论要复杂得多。我们需要更进一步,区分人工窄智能(ANI或Narrow AI)和人工通用智能(AGI或General AI)。

人工智能(ANI)也被称为“弱” AI,是当今世界上存在的AI。Narrow AI是经过编程以执行一项任务的AI,无论是检查天气,能够下棋还是分析原始数据以编写新闻报道。这也是我们每天使用和交互的一种AI:从我们依赖的推荐引擎到Siri和Alexa等虚拟助手。

另一方面,人工智能或“强”人工智能是指表现出类人智力的机器。AGI应该成功执行人类可以执行的任何智力任务。这包括理解世界的能力,抽象思维的能力以及在日常生活中进行常识性推理的能力。

 

GPT-3是哪种AI?

就像我们今天所有其他AI一样,GPT-3属于Narrow AI的范畴。

与其他自然语言处理(NLP)模型一样,GPT-3被赋予输入(大量的语言数据),对其进行编程以解析该数据,从中进行模式化(使用深度学习算法),然后产生结果(单词之间的相关性) ,长句和连贯的段落)。

NLP的最终目标是拥有能够编写合理的电子邮件响应或能够与人类进行口头对话的AI。

但是,除了要完成的指定任务外,NLP程序无法完成其他任何事情:NLP只专注于并且通常只能完成手头的任务:提高其产生类似人类语言的能力。

 

图灵测试与Winograd模式挑战

图灵测试是AI中一种初步的查询方法,用于确定计算机是否能够像人一样思考。如果一台机器可以成功地欺骗一个秘密的询问者,使其相信它也是人,那么它就已经通过了图灵测试。

许多使用深度学习技术的系统很快就会通过图灵测试-GPT-3是一个很好的例子。没有上下文,任何读者将无法分辨文章是由人类还是由机器人编写的。看看下面段落:

感谢您的反馈。我一直感谢您的反馈。我一直很感激我的著作现在已经在我自己的领域之外广泛被阅读了。我不经常与不认同我的人互动。因此,我不确定来自不同背景的人们将如何接受本文。

从以上段落可以清楚地看出GPT-3具有智能。我们知道,只要有目标(写论文),它就可以成功地实现目标。

这个事实本身绝对是令人敬畏的。GPT-3似乎已经以一种有意义、相关联想并唤起读者情感,也掌握了语言和关联词的艺术。

但是,GPT-3是否能显示出全部的人类智能?

没有。

如果我们想知道一台机器是否具有完整的人类智能,我们就需要超越图灵测试走得更远。

一种更成熟的AI检查方法是Winograd模式的问题线,对于人类而言,这很容易回答,但对计算机构成了严峻的挑战。Winograd模式是一对句子,它们之间只有一个或两个单词不同,并且包含歧义,该歧义在两个句子中以相反的方式解决,并且需要使用世界知识及其推理来解决。

该模式的名称来自Terry Winograd的一个著名示例:

The city councilmen refused the demonstrators a permit because they feared violence.
市议员拒绝给示威者许可证,因为他们畏惧暴力。

The city councilmen refused the demonstrators a permit because they advocated violence.
市议员拒绝给示威者许可证,因为他们鼓吹暴力。

在以上两个句子中,“他们”指的是谁?当然,作为人类读者,我们大多数人都可以推断出“他们”一词的含义因所使用的形容词而异。这就是我们大多数人每天使用的常识推理。

 

banq注:类似中文:

“冬天:能穿多少穿多少。夏天:能穿多少穿多少。”

在冬天说“穿多少”与在夏天说“穿多少”是不一样的。这取决于上下文,根据统一语言上下文寻找领域模型是DDD重要的起始步骤。这是人类BA业务分析师或产品经理建模的特点。

 

GPT-3是否可以展示这种推理是一个谜(但是我愿意猜测它不能)。

如今,大多数AI系统仍将无法通过Winograd Schema测试:但是,不确定这种状态会持续多长时间。

 

智力与意识

与其问GPT-3是否像人类一样聪明,不如问以下两个问题:

  1. GPT-3智能吗?是
  2. GPT-3有意识和自我意识吗?没有。

如果说智能是解决复杂问题和实现复杂目标的能力,那么GPT-3无疑是智能的。确实,这就是为什么狭窄的AI仍被称为人工智能的原因。

今天,我们没有理由相信GPT-3以我们的方式有意识或具有自我意识。意识和无意识之间的差异是主观经验的问题。然后有人可能会问:GPT-3就像是某种东西吗?尽管我们不能确定,但​​是我认为可以肯定地说GPT-3没有主观经验。(我们人类是有意识的,石头毫无疑问是无意识的,小狗也表现出某种程度的意识)

通用AI系统将能够推理,解决问题,在不确定性下做出判断,计划,学习,将先验知识整合到决策中,并且具有创新性,想象力和创造力。

没有证据表明GPT-3能够做到这一点。实际上,没有证据表明它实际上能够以有意义的方式理解它所说的任何内容。没有证据表明它对现实世界有任何概念,或者对“好”或“邪恶”的真正含义是什么。我们仅有的证据是它具有解析大量数据并形成有意义的复杂关联的能力。

 

尽管如此,GPT-3还是一种非常强大的预测工具,它在Narrow AI领域中所取得的成就绝对是惊人的。

 

                   

1
猜你喜欢