AI可以有偏见吗?

作者: Laura McKinney
创建日期: 5 四月 2021
更新日期: 26 六月 2024
Anonim
Machine intelligence makes human morals more important | Zeynep Tufekci
视频: Machine intelligence makes human morals more important | Zeynep Tufekci

内容


带走:

近年来,人工智能已被越来越多地采用并应用于从评估美丽到评估累犯风险的所有方面。在此过程中,它还维护了在某些情况下支持偏见和歧视的标准。

技术的进步有可能真正使获得信息和机会的民主化。但是,在某些情况下,它的使用方式加强了这样的观念:在我们的社会中,有些人比其他人更平等。

我们从以下七个实例中看到了这一点,在这些实例中,故意使用人工智能(AI)排除某些类别,或者仅反映了其人类程序员所嵌入的偏见,产生了歧视性效果。

AI美容偏见

旁观者可能会眼前一亮,但是当这种主观观点可以对AI进行编程时,您就会对程序产生偏见。雷切尔·托马斯(Rachel Thomas)在2016年beauty.ai的一次选美比赛中报道了这样的一集。结果显示,较浅的肤色被评为比深色的肤色更具吸引力。

次年,“ FaceApp使用神经网络为照片创建滤镜,创建了一种“热滤镜”,该滤镜可以使人们的皮肤变白,并赋予它们更多的欧洲特色。”

语言的性别偏见

托马斯还列举了一个记录下来的例子,这些例子继承了人们对职业的刻板印象。起点是两句话:“她是医生。他是护士。”

然后,如果您将它们翻译成土耳其语,然后再翻译回英语,那么您将会获得电话游戏所期望的那种结果。

您不会像1950年代那样开始工作,而是得到了一种期望:“他是医生。她是护士。”她解释说,这是由于土耳其语中的性别中立奇异代词会根据期望和陈规定型偏见分配性别。 (阅读人工智能中的女性:通过技术加强性别歧视和定型观念。)

尽管种族和性别偏见渗入图像和语言是引起烦恼的原因,但它们与AI造成的主动歧视并非完全相同,但这已经发生了。

它的证明是该住房类别广告的限制的屏幕截图,该限制允许通过检查排除非裔美国人,亚裔美国人或西班牙裔美国人等类别的排除范围来缩小受众范围。可以在这里查看广告。

正如ProPublica所指出的那样,根据1968年的《公平住房法》和1964年的《民权法》,此类广告的歧视性效果都是非法的。在这种情况下,唯一的辩护是该广告不是用于房屋本身,因为它不是关于出售或出租的财产或房屋。


但是,还有其他针对目标的情况表明种族偏见,并促使各种实体针对社交网络提起民事诉讼。正如《连线》(Wired)报道的那样,由于解决了五项法律案件,最终决定调整其广告定位技术,该诉讼指控该公司于2019年3月通过广告对少数群体进行歧视。

美国公民自由联盟在其和解报告中指出,这种针对性的广告可能是多么阴险,因为少数民族和妇女甚至可能没有意识到,她们没有获得与白人男性相同的信息,住房和工作机会。

随着越来越多的人转向互联网寻找工作,公寓和贷款,广告定位确实会复制甚至加剧社会中现有的种族和性别偏见,这确实存在风险。想象一下,如果雇主选择只向男性展示工程工作广告–不仅被识别为男性的用户永远不会看到这些广告,而且他们也永远不会知道他们错过了什么。

毕竟,我们很少有办法识别我们在网上看到的广告。对于被排除的用户而言,这种区分是看不见的,这使得阻止它变得更加困难。

2.工作中的性别和年龄歧视

在法律案件中,针对住房的非法歧视是允许的。 ProPublica在其和解报告中表示,它已经测试了该平台,并成功在“非裔美国人和犹太人”这类排除群体上购买了“与房屋相关的广告,并且以前发现了按公司划分的年龄和性别不包括用户的招聘广告。那是家喻户晓的名字。”

ACLU发现了许多专门针对特定年龄段男性的求职广告,因为用户可以在单击“为什么向他们显示该特定广告的答案”时找到答案,这是另一篇《连线》杂志的特色文章。美国公民自由联盟(ACLU)向平等就业机会委员会(Equal Employment Opportunity Commission)指控,该社交网络和放置广告的公司以其违反劳动法和民权法为由。

对雇用40岁以上人员的歧视违反了联邦《就业年龄歧视法》(ADEA)。但是,仅针对年龄以下的人群定向招聘广告是该平台支持的功能之一。

ProPublica指出,其中一份报告的重点是揭露哪些招聘广告利用了这种非法的年龄排斥形式。 “家喻户晓”包括Verizon,UPS,Uber,Target,Statefarm,Northwestern Mutual,Microsoft,J Street,HusbSpot,宜家,公共利益基金会,高盛,OpenWorks及其本身等。


面部识别失败

“如果您是白人,面部识别就是准确的”,于2018年2月在《纽约时报》上发表了一篇文章的标题。它引用了一些发现,这些发现在肤色和错误识别之间有着明显的关联:

“一项新的研究通过测量这项技术在不同种族和性别的人群中的作用开辟了新局面,根据这项新研究,皮肤越黑,出现的错误就越多-深色皮肤女性的图像错误率高达35%。”

这项发现归功于MIT媒体实验室的研究员,算法正义联盟(AJL)的创始人Joy Buolamwini。她的研究领域是AI背后的偏见,导致在识别不适合该模型的白人男性规范的面部时导致偏斜的结果。

Buolamwini在2017年的TED演讲中提出了面部识别的种族和性别偏见问题,她在MIT实验室关于性别阴影项目的视频中提到了她在2018年初的视频:

<

视频描述中清楚地表明,不让AI偏见受到抑制,“如果任其恶化,将会削弱自动化时代并进一步加剧不平等现象。”风险无非是“在机器中立的错误假设下失去了民权运动和妇女运动所取得的成果”。

该视频描述增加了许多其他观点所指出的警告,正如我们在《人工智能中的女性:利用技术加强性别歧视和陈规定型观念》中所看到的那样:“自动化系统并非天生就中立。它们反映了优先级,偏好和偏见。凝视那些有权塑造人工智能的人。”

2019年1月25日,Buolamnwini发表了一篇中篇文章,该文章借鉴了她自己的研究以及其他研究人员的观点,他们指出AI缺陷如何导致亚马逊Rekognition错误,并要求该公司停止向警察部门出售AI服务。

尽管Rekognition可以识别浅肤色的男性的准确度为100%,即使是较黑的男性也可以达到98.7%的准确度,但是对于女性而言,较轻的女性的准确度下降到92.9%。更为刺眼的是,较黑的女性的准确率急剧下降至68.6%。

但是亚马逊拒绝放松。 Venture Beat的一篇文章引用了AWS深度学习和AI总经理Matt Wood博士的声明,他坚持认为研究人员的发现并未反映AI的实际使用方式,并解释说:

面部分析和面部识别在底层技术和用于训练它们的数据方面完全不同。尝试使用面部分析来评估面部识别的准确性是不明智的,因为它不是用于此目的的算法。”

但是,发现算法存在很大问题的不仅是那些与主要研究中心有联系的公司。根据Gizmodo的报告,ACLU以最合理的价格(12.33美元)运行了自己的测试。调查发现,Rekognition将28名国会议员与犯罪分子的照片相匹配。

“当北加州的美国公民自由协会(ACLU)要求Rekognition将所有535名国会议员的照片与25,000张公开的面部照片相匹配时,就做出了错误的识别。”

由于28个人中有11个人是有色人种,因此对他们来说,错误率高达39%。相反,总体上错误率是可接受的5%。在与面部照片相关的知名度中,美国国会黑人核心小组的六名成员在致亚马逊首席执行官的一封公开信中表达了他们的关注。

累犯偏见

当AI所代表的不仅仅是识别错误时,它对于有色人种的偏见就成为一个更严重的问题。那是ProPublica在2016年进行的另一项调查的结果。这种偏见的后果无非是个人自由,再加上忽视了该算法偏爱肤色的人的实际风险。

该文章提到了两个平行案件,涉及一名白犯和一名黑犯。使用一种算法来预测哪个人可能再次违反法律。黑人被定为高风险,白人被定为低风险。

这个预言完全把它弄错了,要释放的白人必须再次入狱。这是非常有问题的,因为法院在裁定假释时确实依靠计分,这意味着计入该程序的种族偏见意味着法律上的不平等待遇。

ProPublica对该算法进行了测试,将2013年和2014年在佛罗里达州布劳沃德县被捕的7,000多人的风险评分与接下来两年受到新刑事指控的人数进行了比较。

他们发现,只有20%的人会再次犯下暴力罪行的预言是正确的,而只有61%的分数表示有危险,轻罪的发生率更高。

真正的问题不仅是缺乏准确性,还涉及种族偏见:

  • 该公式特别可能错误地将黑人被告标记为未来的罪犯,以这种方式给他们贴上错误的标签,其比率几乎是白人被告的两倍。
  • 白人被告比黑人被告更容易被标签为低风险。

实际上,这意味着黑人的错误率为45%,白人的错误率为24%。尽管统计数据令人眼花,乱,托马斯报告说,威斯康星州最高法院仍然支持使用该算法。她还详细介绍了与累犯算法相关的其他问题。