“Hallucinate”被《剑桥词典》评选为2023年度词汇

banq

周三,《剑桥词典》宣布2023 年年度词汇是“hallucinate(幻觉)”,原因是ChatGPT等大型语言模型 (LLM) 的流行,这些模型有时会产生错误信息。该词典还发布了一个解释该术语的插图网站,称“当人工智能产生幻觉时,它会产生虚假信息。”

《剑桥词典》团队选择‘hallucinate’作为 2023 年度词汇,因为他们认识到这个新含义触及了人们谈论人工智能的核心。生成式人工智能是一种强大的工具,但我们仍在学习如何安全有效地与之互动——这意味着要意识到它的潜在优势和当前的弱点。

与人工智能相关的“hallucinate幻觉”起源于机器学习领域的一个艺术术语。

剑桥词典对幻觉(对人类)的第一个定义是“似乎看到、听到、感觉到或闻到不存在的东西”。它涉及有意识的感知,以及对这种联系的一些反对。

与所有单词一样,它的定义大量借鉴了上下文。

当机器学习研究人员使用“幻觉”一词时,他们通常会理解大模型的局限性。

剑桥大学人工智能伦理学家亨利·谢夫林 (Henry Shevlin) 在一份声明中表示:广泛使用‘幻觉’一词来指代 ChatGPT 等系统的错误,这为我们如何思考人工智能并将其拟人化提供了一个令人着迷的快照。随着这十年的发展,我预计我们的心理词汇将进一步扩展,以涵盖我们正在创造的新智能的奇怪能力。

在过去的一年里,幻觉给个人和公司带来了法律麻烦。今年5月,一名律师因引用ChatGPT编造的虚假案件而与法官发生争执,随后被处以罚款。今年 4 月,Brian Hood起诉OpenAI 诽谤,当时 ChatGPT 谎称 Hood 因海外贿赂丑闻而被定罪。后来双方达成庭外和解。

事实上,大模型一直在“产生幻觉”。他们根据从训练中学到的知识(以及后来的微调)将概念之间的关联整合在一起,但这并不总是准确的推论。在知识存在差距的地方,他们会给出听起来最有可能的答案。很多时候,如果有高质量的训练数据和适当的微调,这可能是正确的,但有时却不然。

到目前为止,OpenAI 似乎是唯一一家通过GPT-4大幅遏制错误幻觉的科技公司,这也是该模型仍被视为领先的原因之一。

他们如何实现这一目标是 OpenAI 秘密武器的一部分,但 OpenAI 首席科学家 Illya Sutstkever此前曾提到,他认为 RLHF 可能会在未来提供一种减少幻觉的方法。(RLHF或通过人类反馈强化学习,是人类对语言模型的答案进行评分的过程,这些结果用于进一步微调模型。)

“人工智能可以‘产生幻觉’这一事实提醒我们,人类仍然需要运用批判性思维技能来使用这些工具。人工智能非常擅长处理大量数据。但是你要求他们越原创,他们就越有可能误入歧途。

根据词典的说法,对于人工智能词汇来说,今年是辉煌的一年。剑桥表示,将于 2023 年在其词典中添加其他与人工智能相关的术语,包括“大型语言模型”、“AGI”、“生成式人工智能”和“GPT”。