AI也会瞧不起外地人?

banq

人工只能是否也会存在种族歧视、民族歧视,瞧不起外地人,或方言偏见?

《自然》题为“人工智能根据人们的方言做出隐性种族主义决定”的文章介绍了一项研究,该研究表明语言模型通过方言偏见表现出隐性种族主义,尤其是针对非裔美国英语 (AAE) 使用者。

这项研究表明,虽然语言模型可能对非裔美国人表现出明显的正面刻板印象,但它们却隐藏着与 AAE 相关的更多负面、隐性刻板印象,从而对就业和刑事司法等领域产生有害影响。

背景:
语言模型中反映的刻板印象与民权时代之前的负面看法比当代观点更为接近,这表明人工智能系统中仍然存在着古老的偏见。

方法:
该研究采用了一种称为“匹配伪装探测”的技术,使研究人员无需直接参考种族即可评估语言模型对 AAE 与 SAE 中的文本的反应,从而将方言作为决策的一个因素


主要发现

  • 方言偏见:语言模型认为,与使用标准美式英语 (SAE) 的人相比,使用 AAE 的人从事的工作不那么体面,即使没有明确提到种族。例如,模型认为,与使用 SAE 的人相比,使用 AAE 的被告更可能被判处死刑。
  • 隐性刻板印象与显性刻板印象:研究强调了语言模型对非裔美国人表达的明显积极刻板印象与对 AAE 说话者持有的更消极的隐性刻板印象之间的差异。这表明,当前的偏见缓解策略(如人工反馈训练)可能会掩盖但无法消除潜在的偏见。

网友:
1、没有默认假设的大型语言模型是不可能存在的,因为它只是建立在假设之上的假设。

2、LLM 只不过是黑匣子中复杂的多层自动生成偏差。它们天生就有偏差,它们做出的每一个决定都是基于偏差权重,该权重经过优化,可以最好地预测训练中使用的数据。

3、偏差和权重的黑匣子是有偏差的,并带有其自身的负担。

4、当你对模型进行足够的调整以消除所有偏见时,你最好忘记神经网络并从头开始硬编码 AI……然后它就只是你自己的偏见了。

5、为什么这让我想起我的研究方法课上的一个场景,当时我们的讲师解释说,所有社会研究都是无效的,因为不可能完全理解和解释另一种文化的内部参考框架。

6、所有模型都是错误的。有些模型是有用的。查看皮尔斯“信仰的固定” https://philarchive.org/rec/PEITFO

7、这句话中的偏见有两种表现形式:

  • 一方面,偏见是一种在某个方向上基本中立的偏爱或偏好;
  • 另一方面,偏见是一种纯粹消极和毫无根据的偏爱或厌恶。

第一种偏见是不可避免的,也是可取的,而第二种偏见只要有合适的衡量方法,是可以纠正的。
消除偏见的更根本问题在于模型的训练依据,而模型的训练依据主要是人们的著作。模型是从我们身上学习的。

8、一切都是价值中立的。人工智能没有偏好或厌恶。它只是有权重。价值判断只有在人类观察结果时才会发挥作用。

9、如果你完全排除这些偏差,你的模型的准确性就会降低,正如我们所见。

10、Anthropic 首席执行官表示,大型模型现在正在催生小型模型,这些模型完成任务后再汇报,从而创造出群体智能,减少对人类输入的依赖,从而可能摆脱人类认知偏见的影响