5 种表现出人工智能偏见的算法

我们社会的一个不幸事实是,偏见根深蒂固地存在于人类本性中。人类可能会故意对某些种族或宗教少数群体、性别或国籍的成员产生偏见,或者由于出生、家庭历史和社会的社会条件而无意中产生偏见。无论出于什么原因,人们都会产生偏见,而这些偏见现在被传递给了人类开发的人工智能系统。

什么是人工智能偏见
人工智能(AI)偏见,也称为机器学习偏见或算法偏见,是由于人类偏见扭曲原始训练数据或人工智能算法而导致的偏见结果的现象,可能产生有害结果。

未解决的人工智能偏见会对组织的绩效以及人们参与经济和社会的能力产生负面影响。偏见会降低人工智能的准确性,从而降低其潜力。
产生偏差结果的系统不太可能为企业带来利润。此外,人工智能偏见引发的丑闻可能会加剧女性、有色人种、残疾人、LGBTQ 社区和其他边缘群体之间的不信任。

人工智能模型吸收了社会偏见,这些偏见可以悄悄地嵌入它们所训练的大量数据中。在招聘、警务、信用评分等用例中,历史上被边缘化的群体可能会因反映社会不平等的历史偏见数据收集而受到伤害。

哪些算法表现出人工智能偏见?
以下是一些表现出人工智能偏见的算法。值得注意的是,这种偏见总是针对少数群体,例如黑人、亚洲人、女性等。
COMPAS 算法对黑人有偏见:
COMPAS 是“替代制裁的惩戒罪犯管理分析”的缩写,是由 Northpointe 开发的人工智能算法,在美国用于预测哪些罪犯未来更有可能再次犯罪。法官根据这些预测对这些罪犯的未来做出决定,包括他们的监禁刑期和保释金额。获得普利策奖的非营利新闻机构 ProPublica 发现 COMPAS 存在偏见。研究发现,黑人罪犯未来再次犯罪的可能性远高于他们第一次犯罪的可能性。另一方面,白人罪犯则被认为相对风险较低。黑人罪犯被错误地归类为更危险的几率几乎是白人罪犯的两倍,即使在暴力犯罪案件中也是如此。 COMPAS 的这一发现表明,它以某种方式学会了人类的普遍偏见,即黑人平均犯罪率远高于白人,未来犯罪的可能性也更大。

PredPol 算法对少数族裔存在偏见:
PredPol 又称为预测性警务,是一种人工智能算法,旨在利用警方收集的犯罪数据(例如逮捕人数、特定区域的报警次数等)预测未来犯罪发生的地点。该算法已被美国加利福尼亚州、佛罗里达州、马里兰州和其他州的警察局使用,其目标是通过让人工智能进行犯罪预测来减少警察局的人为偏见。然而,美国的研究人员发现 PredPol 存在偏见,无论犯罪率如何,都会将警察派往少数族裔聚居的社区。这是由于 PredPol 中的反馈回路,其中算法预测在提交更多警察报告的地区会发生更多犯罪。然而,警察集中度更高(可能是由于现有的人为偏见)可能导致这些地区的警察报告数量更多。此外,这导致算法出现偏见,从而导致向这些地区派遣更多警察。

亚马逊招聘引擎歧视女性:
亚马逊招聘引擎是一种人工智能算法,旨在分析亚马逊求职者的简历,并确定哪些人会被联系进行进一步的面试和选拔。亚马逊创建了这种算法,以自动搜索人才,消除所有人类招聘人员中存在的固有人为偏见。然而,事实证明,亚马逊算法在招聘过程中歧视女性。这可能是因为招聘算法是通过研究亚马逊对过去十年提交的简历的回复来训练分析候选人简历的。然而,之前分析这些简历的人类招聘人员大多是男性,对女性候选人有固有的偏见,这种偏见被传递给了人工智能算法。当亚马逊研究该算法时,他们发现它会自动对包含“女性”等字眼的简历进行评分,并降低两所女子学院毕业生的排名。因此,亚马逊放弃了该算法,不再用它来评估招聘候选人。

Google Photos 算法对黑人有偏见:
Google Photos 包含一个标记功能,可根据图片中显示的内容为照片添加标签。这是由卷积神经网络 (CNN) 实现的,该网络通过监督学习对数百万张图像进行训练,利用图像识别来标记照片。当一位黑人软件开发人员和他的朋友的照片被 Google 归类为大猩猩时,该算法被发现具有种族主义色彩。Google 表示,他们对这一错误感到震惊和诚挚的歉意,并承诺将来会予以纠正。然而,直到两年后,Google 才从卷积神经网络词汇表中删除了大猩猩和其他类型的猴子,确保没有照片被识别为大猩猩和其他类型的猴子。Google Photos 对所有与猴子相关的搜索词(包括大猩猩、黑猩猩和黑猩猩)都返回“无结果”。然而,这只是一个临时解决方案,因为它并没有解决根本问题。图像标记技术仍然不完善,即使是最复杂的算法也完全依赖于它们的训练,无法检测现实生活中的极端情况。

IDEMIA 人脸识别算法对黑人女性存在偏见:
IDEMIA 是一家开发人脸识别算法的公司,其产品供美国、澳大利亚、法国等国的警察使用。在美国,这套人脸识别系统会分析大约 3000 万张照片,以确定一个人是否是罪犯或者对社会构成威胁。美国国家标准与技术研究所发现,在与白人女性甚至黑人和白人男性进行比较时,该算法对黑人女性的识别存在严重误判。美国国家标准与技术研究所称,Idemia 算法将白人女性脸部错误匹配的概率为万分之一,将黑人女性脸部错误匹配的概率为千分之一。这对于黑人女性来说,是错误匹配的 10 倍,这个数字可是非常高啊!一般来说,人脸识别算法的错误匹配率为万分之一,就算是可以接受,但黑人女性的错误匹配率要高得多。 Idemia 声称,经过 NIST 测试的算法尚未商业发布,而且随着种族间身体差异的出现,其算法正在以不同的速度改进。