其他

Science:种族歧视和性别歧视——AI被人类带坏

2017-04-27 氘氘斋 X一MOL资讯

‍‍‍‍


最近几年,人工智能(AI)领域火爆异常。AI虽然由人类创造,但在某些方面已经开始悄悄超越人类,X-MOL此前就有过不少相关报道。比如,AI指导化学反应设计(点击阅读详细),帮助医生诊断皮肤癌(点击阅读详细)、乳腺癌(点击阅读详细)等等。最近,在诊断心脏病方面AI也开始击败人类专家了(PLoS ONE, DOI: 10.1371/journal.pone.0174944)。AI的基础是深度学习算法,通过数据训练来提高自身“智力”,这么说来AI确实是个天资聪颖的“好学生”,大有“青出于蓝而胜于蓝”之势。但是,它从人类这学到的可不都是好东西。

图片来源:Benedetto Cristofani / @Salzmanart


绝大多数人都相信AI比人类更公正,冷冰冰的机器只会严格的逻辑思考和运算,没有感情没有倾向,不会有偏好,也不会有歧视。似乎通过算法来协助招聘,将给男人和女人平等的工作机会;用大数据预测犯罪行为,将避免现实警务行动中的种族偏见。但一项发表在Science 上的近期研究表明,AI也同样可能产生偏见,特别是当它向我们人类学习时。美国普林斯顿大学的研究人员发现,AI通过抓取大量人类创造的文字内容来学习词汇的意义之后,它会变得与人类一样,会“带着有色眼镜看人”。

https://v.qq.com/txp/iframe/player.html?vid=u03971mhwll&width=500&height=375&auto=0
视频来源:Ars Technica


该研究通讯作者之一、美国普林斯顿大学(Princeton University)及英国巴斯大学(University of Bath)计算机科学家Joanna Bryson说:“不要认为AI是圣人,它只不过是我们现有文化的延伸。”

本文作者(由左至右)Aylin Caliskan、Arvind Narayanan、Joanna Bryson。图片来源:Ars Technica


这项工作受到一种称为内隐联想测验(implicit association test,IAT)的心理学工具的启发。在测验中,一些词汇在电脑屏幕上闪现,人们对它们的反应速度代表潜意识中的这些词汇的关联。例如,有种族主义倾向的被试者常常更快地将黑人与不好的词汇建立联系。


为了测试AI“思想”中的类似偏见,Bryson及其同事开发了一个词嵌入关联测试(word-embedding association test,WEAT)。他们从既定的“词嵌入”开始,基本上可以认为是一台计算机基于这个词通常出现的上下文产生的对一个词的定义。所以“冰”和“蒸汽”有类似的嵌入,因为它们经常出现在含有“水”的文字中,却很少与“时尚”这个词有关。但是对于计算机而言,嵌入就是一串数字,而不是人类能直观理解的定义。斯坦福大学的研究人员通过分析互联网上的数百亿单词,生成了这篇论文中所用的嵌入。


WEAT并不是像测试人类那样计反应时间,而是计算这些数字串之间的相似度。Bryson的团队发现,像“Brett”和“Allison”这样的名字的嵌入与正面词汇如“爱”和“笑声”的相近;而像“Alonzo”和“Shaniqua”这样的名字的嵌入,则更类似于负面词汇,如“癌症”和“失败”。


对人类的IAT测试表明,一般情况而言,美国人更倾向于将男人与工作、数学和科学相联系,而将女性与家庭、艺术相联系。年轻人一般被认为比老人更快乐。这样的结果在对AI的WEAT测试中一样存在。而且这些程序还推测花朵比昆虫(以及乐器比武器)更加令人愉悦。


这篇文章还表明,心理学实验中一些隐藏的偏见也很容易被AI所习得。譬如说, “女性”这个词大多与文艺类职业以及家庭密切关联,而“男性”这个词则与数学和工程专业关系密切。


更让人惊讶的是,AI还可能将欧洲与美国人的姓名与正面词汇联系起来,而非裔美国人的名字更常与负面词汇相关联。这和人类的种族主义者一般无二。


其实,机器算法的偏见歧视并不是一个新问题。早在上世纪七八十年代,英国的圣乔治医学院就使用电脑程序对申请者的资料进行初步筛选。该程序模拟了过去录取学生的选择模式,最终被拒绝的约60位申请者大多是女性或是非欧洲人的名字。英国的种族平等委员会最终裁决,圣乔治医学院在这场招生过程中存在种族和性别歧视。


这场事故怪谁呢?原本被认为绝对公正的计算机程序也出现了歧视。这既不是算法的漏洞,更不是程序员们的恶作剧,而是来自人类内心和文化中根深蒂固的“偏见”。计算机只是继承了这一点。


难怪Bryson要说:“很多人都在说这个实验的结果表明AI是有偏见的。其实不对,这正显示出人类自身是有偏见的,而AI只不过在学习我们。”


Bryson还警告说,AI的学习能力可能会加强现有的偏见。人类毕竟还有外界的约束和道德的要求,会自觉地改正一部分偏见,但AI并没有这种自觉。


既然AI也会产生歧视和偏见,人类应该如何修改它呢?该文章的第一作者、普林斯顿大学的Aylin Caliskan博士认为,解决方案并不一定要改变AI的算法。AI只是客观地通过算法捕捉我们生活的现实世界,而我们的世界里充满了歧视与偏见,AI就不可避免的被“带坏”。


有时候偏见和歧视就在一些不经意的举动中。小学老师给孩子们举例子,说道“他将来希望成为一名医生,而她将来希望成为一名护士”。这在孩子的内心可能已经种下了偏见的种子。


人类消除了偏见与歧视,AI才可能重新学好。


希望世界少一些歧视,多一些理解与关爱。


写到最后,突然联想到了那位“美联航暴力驱逐乘客”事件中被计算机系统“随机”抽中的亚裔乘客……


原文(扫描或长按二维码,识别后直达原文页面):

Semantics derived automatically from language corpora contain human-like biases

Science, 2017, 356, 183-186, DOI: 10.1126/science.aal4230


编译自:

http://www.sciencemag.org/news/2017/04/even-artificial-intelligence-can-acquire-biases-against-race-and-gender


(本文由氘氘斋供稿)



推荐阅读

X-MOL APP 开放下载

手机追期刊神器大揭秘!

在手机上使用“文献直达”是一种什么样的体验?

先定一个小目标,比如免费给自己简历润个色?

2016年全国高校研究所在“四大”化学期刊上论文发表统计‍‍‍‍‍‍‍‍‍‍‍‍

X-MOL全球导师改版上线!数万全球化学相关领域导师信息随时查询


本文版权属于X-MOL(x-mol.com),未经许可谢绝转载!欢迎读者朋友们分享到朋友圈or微博!


长按下图识别图中二维码,轻松关注我们!




点击“阅读原文”,参加讨论

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存