AI在自动驾驶、社交媒体与医疗保健等领域出现显著挫折 - bloomberg

21-10-05 banq

人工智能AI在自动驾驶汽车、社交媒体甚至医疗保健领域出现明显挫折。

扎克伯格和马斯克都在努力解决一些大问题,这些问题至少部分源于对交付不足的人工智能系统的信任。扎克伯格正在处理无法阻止有害内容传播的算法;马斯克的软件尚未以他经常承诺的方式驾驶汽车。准备使用AI的公司应该考虑专注于培养高质量的数据——大量的数据——并雇用人员来完成人工智能尚未准备好的工作。  

旨在松散地模拟人脑的深度学习 AI 系统可以发现肿瘤、驾驶汽车和写文本,在实验室环境中显示出惊人的结果。但问题就在于此。在不可预测的现实世界中使用该技术时,人工智能有时会达不到要求。当它被吹捧用于医疗保健等高风险应用时,这令人担忧。

  

Facebook 对人工智能的信心在其自己的网站上很明显 ,它在提及内容主持人的重要性超过其机器学习算法。扎克伯格还在 2018 年告诉国会,人工智能工具将是识别有害内容的“可扩展方式”。这些工具在发现裸体和与恐怖主义相关的内容方面做得很好,但它们仍然 难以阻止错误信息的传播。

问题是人类语言在不断变化。反疫苗运动者使用诸如输入“va((ine”)之类的技巧来避免被发现,而私人枪支销售商则在 Facebook Marketplace 上发布空箱子的图片,并附上“PM me”的描述。这些欺骗了旨在阻止违反规则的系统内容,更糟糕的是,AI 也经常推荐该内容。

现在,那些被雇佣来支持 Facebook 算法的大约 15,000 名内容审核员工作量已经过度。如果 AI 不能胜任这项任务,Facebook 应将这些员工增加一倍至 30,000 人,以正确监控帖子。《数学毁灭武器》的作者凯茜·奥尼尔直截了当地说Facebook 的人工智能“不起作用”。

  马斯克对人工智能的过度承诺实际上是个传奇。马斯克最近在一条推文中承认,通用自动驾驶技术是“一个难题”。

 

更令人惊讶的是:人工智能在医疗保健方面也一直表现不佳,而该领域对这项技术最有希望。今年早些时候,《自然》杂志上的一项研究分析了数十种旨在检测 X 射线和 CT 扫描中 COVID-19 迹象的机器学习模型。它发现由于各种缺陷,没有一个可以用于临床环境。另一项研究是上个月发表在英国医学杂志上的研究发现,94% 的人工智能系统扫描乳腺癌迹象的准确度低于单个放射科医生的分析。用于发现乳腺癌的人工智能系统被设计得过于敏感,更容易发出错误警报,宁可误报不可错过。但是,即使乳腺癌筛查召回率的微小百分比增加(美国为 9%,英国为 4%),也意味着成千上万的女性因误报而更加焦虑。“也就是说,我们接受对女性进行筛查的伤害,只是为了实施新技术,”泰勒-菲利普斯说。

 

为什么人工智能没有达到我们希望的状态?部分问题是技术营销的膨胀。但人工智能科学家也可能将原因归咎于此。

这些系统依赖于两件事:一个功能模型和用于训练该模型的底层数据。为了构建良好的人工智能,程序员需要将绝大多数时间(可能大约 90%)花在数据上——收集数据、分类数据和清理数据。这是一项枯燥而艰难的工作。可以说,今天的机器学习社区也忽视了这一点,因为科学家们对 AI 架构的复杂性或模型的复杂程度给予了更多的重视和声望。

 

猜你喜欢