关于人工智能的误导性信息泛滥 - thegradient


媒体通常倾向于报道人工智能或纳米技术领域中每一个微小的进步,这是一次巨大的胜利,它将很快从根本上改变我们的世界。
当然,部分原因是因为公众喜欢革命的故事,对报道渐进式增长方面感到疲倦打哈欠。但是研究人员通常是同谋,因为他们过于依赖于宣传,而这会对他们的资金甚至薪资产生重大影响。在大多数情况下,媒体和相当一部分研究人员都对这种现状感到满意,在这种现状中,源源不断的结果首先被大肆宣传,然后被悄悄地遗忘。
考虑一下过去几周的三个独立结果,这些结果在主要媒体上以根本上具有误导性的方式报道。
(具体误导报道点击标题见原文)
......

不幸的是,过度夸大的AI问题超出了媒体本身。实际上,几十年来,自AI诞生以来,许多(尽管不是全部)领先的AI人士都在煽动炒作。
这可以追溯到早期的创始人,他们认为我们现在所说的人工智能(AGI)距现在只有几十年了。1966年,麻省理工学院AI实验室著名地为杰拉尔德·萨斯曼(Gerald Sussman)解决了夏季解决视力的问题。众所周知,机器视觉在五十年后仍未得到解决。在首次乐观的预测发布六十年后,通用AI似乎仍要走几十年。
这种趋势在现代时代仍在继续。以下是一些来自最近的AI历史的例子,来自一些最著名的当代人物
(具体例子点击标题见原文)
同时,对工作被歪曲的调查人员的回应通常是沉默,甚至是默许。Open AI的首席科学家llya Sutskever在推特上说:“经济学家采访了GPT-2,而这次采访才有意义”。当我问到他是否支持《经济学人》采访中的例子很明显之后,是否支持他的评论,他没有回应。

研究社区的其他习惯进一步导致了一个不准确的AI叙事。例如,DeepMind经常撰写论文,对工作的潜力充满热情,但缺乏关于潜在限度的章节,这些章节是大多数严肃科学工作的结论章节的主要内容。
取而代之的是,他们经常通过邀请推理来争论,暗示他们正在努力解决棘手的问题和严峻的挑战,这暗示着他们所使用的技术也应该解决其他严峻的挑战-而不考虑其他问题,例如自然问题。语言理解与他们一直关注的游戏的性格差异很大。
他们在AlphaGo上的自然论文 和《星际争霸》 一样所有人都遵循这一策略,基本上没有讨论潜在的限制。
仁慈的是,并非该领域的所有人都夸大了他们的工作。在过去一年左右的时间里,我见过Pieter AbbeelYoshua Bengio进行了精彩平衡的演讲,他们都指出深度学习(和深度强化学习)做得很好,但同时又明确指出了未来的挑战,并直截了当地承认了我们还需要走过多远距离。(Abbeel强调了实验室工作与可以在现实世界中工作的机器人之间的差距,Bengio强调了必须纳入因果关系)。

误导使得决策者和公众很容易感到困惑,因为偏见往往是对结果的高估而不是对结果的低估,公众开始担心在可预见的将来将不会存在的一种AI(取代许多工作)。

过度承诺的风险
对AI的炒作让每个人都受益,不是吗?公众的热情意味着投入更多的研究资金,更多的人致力于AI。如果有更多的钱和更多的人,我们将更快地获得人工智能。有什么害处?
许多人会过度捕捞特定的水域,在短期内为自己生产更多的鱼,直到整个鱼群崩溃,所有人都受苦。
在AI中,风险是这样的:如果以及当公众,政府和投资界认识到他们被忽悠时,对AI的优缺点不切实际的描述与现实不符,那么新的AI冬季可能会开始。(第一次出现在早先的炒作和失望周期之后的1974年。)
我们已经看到了许多事件,事后看来可能是预兆:
(具体事件点击标题见原文)

目前,政府,大公司和风险投资家正在对AI进行大量投资,主要是深度学习。如果他们开始意识到一种过分乐观的模式,那么整个领域可能会遭受打击。如果无人驾驶汽车和对话机器人迟到一两年,没问题,但是无人驾驶汽车,医疗诊断和对话式AI的项目完成截止期限越长,新AI冬季的风险就越大。

推荐建议
总结一下,关于AI的错误信息很普遍。尽管过分报道并不普遍,但即使是著名的媒体也常常歪曲结果。公司利益经常导致这个问题。个别研究人员,甚至某些最杰出的研究人员有时也会这样做,而当他们的结果被误解时,更多的研究人员则静静地坐在旁边,而没有公开澄清。
错误的信息并非无处不在-一些研究人员直截了当地指出局限性,一些报道准确地报道了一些局限性,并诚实地承认了局限性,但是随着革命性的发展,解释每个增量进步的总体趋势是普遍的,因为它适合一个有趣的叙述胜利的象征。
最终,最终的结果可能会破坏该领域,在最初帮助激发公众利益之后反而引发了AI冬季。
Ernie Davis和我提出了六项建议:

  • 除去这些言论,人工智能系统实际上在做什么?“阅读系统”真的阅读吗?
  • 结果有多普遍?(在凤凰城工作的驱动系统在孟买也能工作吗?魔方系统在打开瓶子时能工作吗?需要再培训多少?)
  • 有没有感兴趣的读者可以自己探索的演示?
  • 如果说人工智能系统比人类更好,那么又好多少呢?(相比之下,低薪工人缺乏良好表现的动力可能无法真正探究人类能力的极限)
  • 实际上,成功完成特定任务可以使我们迈向建立真正的AI多远?
  • 系统有多健壮?无需大量重新培训,它是否可以与其他数据集一样好用?AlphaGo在19x19的板上可以正常工作,但是需要重新训练才能在矩形板上玩;缺乏转移正说明了这一点。

在每份研究报告和媒体报道的末尾,有一点建设性的自我批评,可能对保持期望的实现大有帮助。