打假:如何识别市场上人工智能产品的真假? - Arvind


如今以“人工智能”为名义销售的大部分人工智能产品都是类似蛇油一样的护肤品作用,没有什么作用。Arvind Narayanan昨天在麻省理工学院发表一次演讲中,描述了为什么会发生这种情况,我们如何识别有缺陷的 AI 声明并进行反击。这里是幻灯片的简要摘录:

  1. 关键点#1:人工智能是一组松散相关技术的总称。其中一些技术最近确实取得了真正的、显着的和广为人治的进步。但是公司在他们销售的任何东西上都贴上“人工智能”标签,这时利用公众的困惑。
  2. 关键点#2:那些可疑的人工智能应用大多数涉及预测社会结果:哪些会在工作中取得成功?哪些孩子会辍学等等。我们无法预测未来,这应该是常识。但当涉及到“人工智能”时,我们似乎已经决定暂停我们的常识判断。有来自许多领域的证据,包括犯罪风险预测,使用数百个特征的机器学习只比随机的稍微精确一点,也不比简单的线性回归和三个或四个基本上是手动评分规则的特征更精确。
  3. 关键点3:透明的、手动的风险预测评分规则是一件好事!违反交通规则的人在驾照上会扣分,累积扣分过多的人被认为驾驶风险太大。相比之下,用“人工智能”来自动吊销人们的执照将是反乌托邦的过于理想的天真想法。

实上,许多这些AI模型的表现并不比简单的线性回归更好。当你使用人工智能来预测社会结果时,会有巨大的危害:缺乏可解释性,以及领域专家向不负责任的公司大量转移权力。
关键要点是:AI 擅长某些任务,但无法预测社会这个复杂系统的结果。我们必须抵制旨在混淆这一任务的巨大商业利益。在大多数情况下,手动评分规则同样准确、更透明且值得考虑。
雪莉·特克尔有一个中心论点:你不能仅仅因为机器假装是私人的,就和机器建立人际朋友关系。如果人们依赖机器和这种虚伪的信任关系,他们就不会去理解真正的关系是如何运作的。
也有人表示使用算法替代人类判断属于一种技术拜物教,过于崇拜技术的一种宗教,人类判断如何与AI互动是一个复杂系统的顶级复杂课题。
教授计算机科学CS专业一种教学方法:让学生相信存在一种中心法则,即计算机是非常可泛化的机器,我们可以在其中创建可以为一个领域开发并转移到另一个领域的算法。这个想法长期以来一直很好地服务于 CS,其中为天文学开发的算法然后被用于医疗诊断技术,但从根本上讲,这是解决问题的一种傲慢自大的方式。当您尝试部署 AI 算法时,您不能忽略上下文
简而言之,将人工智能置于上下文环境化,也就是说置于在特定领域的专业知识方面,这对于以道德方式部署它并从整体上理解它是至关重要的。