Twitter推出首个纠正算法偏见的赏金挑战赛


在机器学习 (ML) 模型中发现偏见是很困难的,有时,公司一旦公开以后才会发现意外的道德危害,Twitter想改变这一点:
我们正在尝试一些激进的方法,引入业界首个算法偏见赏金竞赛。 
5 月,我们分享了在显着性算法(也称为图像裁剪算法)中识别偏差的方法,并且我们将我们的代码提供给其他人来重现我们的工作。我们希望通过邀请和激励社区来帮助识别该算法的潜在危害,从而使这项工作更进一步。 
我们受到研究和黑客社区如何帮助安全领域建立识别和缓解漏洞以保护公众的最佳实践的启发。我们希望培养一个类似的社区,专注于 ML 伦理,以帮助我们确定比我们自己能够解决的更广泛的问题。通过这一挑战,我们的目标是在 Twitter 和行业中树立先例,以主动和集体识别算法危害。
对于这个挑战,我们正在重新分享我们的显着性模型和用于生成图像裁剪的代码,给出预测的最大显着点,并要求参与者建立自己的评估。成功的参赛作品将在他们的方法中考虑定量和定性方法。有关挑战的更多详细信息,包括如何参赛以及我们将用于评分参赛作品的评分标准,请访问HackerOne 上提交页面。帮助我们审查参赛作品的将是我们尊敬的评审团:Ariel Herbert-VossMatt MitchellPeiter “Mudge” ZatkoPatrick Hall。  
获奖者将在 8 月 8 日由 Twitter 主办的DEF CON AI Village研讨会上宣布,我们将邀请获奖者展示他们的作品。获胜团队将通过 HackerOne 获得现金奖励: 

  • 第一名 3,500 美元
  • 1,000 美元第二名
  • 第三名 500 美元
  • 最具创新性奖 1,000 美元 
  • Most Generalizable 1,000 美元(即适用于大多数类型的算法)

我们将在太平洋时间 7 月 30 日星期五下午 1:30举办Twitter Spaces 对话,与一些帮助实现这一挑战的人讨论挑战。关注@ruchowdh 收听对话。
 
黑客新闻评论:
我现在确信 Twitter 和其他社交媒体平台所呈现的社交难题已经远远超出了算法和平台本身,而是涉及到人们一般的互动方式。
 
这些公司只是想提高他们的参与度指标,比如用户在网站上的停留时间,或者他们平均看到多少广告。在他们开始使用机器学习之前确实如此,但可能不那么明显。这些公司发现,一般来说,人性对愤怒阴谋论和八卦上瘾。他们就会提供给我们。
这与烟草公司没有太大区别。他们发现了一种对我们不利的成瘾物质,并正在尽可能地将其清除。问题是人们“想要”这种产品,尽管它有负面影响。
这就是为什么这些公司无法修复他们的产品。这就像问“我们如何才能使烟草健康?”。我们不能。
 
所有社交媒体都面临双重问题,即他们需要一个指标来对内容进行排名(因为内容太多而无法传输所有内容),并且任何此类指标一旦成为目标就不再是一个好的指标。
 
换句话说,问题归结为仅针对一个变量(股东价值)进行优化的公司,而这些算法依赖于仅针对一个变量(参与度)进行优化的算法。
综上所述,它导致许多负面外部性在各个层面都被忽视。
 
这个算法方法让我想起了一个我每天都在使用的模型:人类自身感知模型:
因为在感官知觉和知觉/意识之间有一个“算法”,并且因为信号是高度处理的,而且处理的方式对于我们的意识来说是无法意识到的(潜意识):你会产生各种奇怪的行为。
在您无法控制刺激的处理方式和感知的形成方式的情况下,你只能从其意图和目的角度思考才能避免被操纵,或者至少被拒绝控制。
不幸的是,任何 SM 算法都必须符合相同的目的:改变我们的看法并影响我们的行为。