查看原文
其他

见闻 | 美国大数据正展示一个带有种族偏见的未来

2017-03-08 埃克豪斯 社会科学报

外刊速递

《华盛顿邮报》:大数据或强化司法中的种族偏见

劳雷尔·埃克豪斯    晓舟/编译


运用演算、预测和分析等技术处理以往犯罪数据以协助警方辨识潜在犯罪活动的“预测性警务”风靡全球,不过,其效果也引发争议。美国人权数据分析团体警务项目研究人员劳雷尔·埃克豪斯(Laurel Eckhouse)2月10日在《华盛顿邮报》上撰文指出,大数据或强化司法中的种族偏见。


大数据已影响司法制度


大数据已扩大到刑事司法制度。洛杉矶警方使用计算机化的“预测性警务”来预测犯罪活动和配置警力。在佛州的劳德代尔堡,各种机器的算法被用于设定犯人保释金数量。在全美各州,各种对累犯风险的数据估算正在被运用于量刑裁决。


倡导者说,这些数据驱动的工具消除了人们对于刑事司法制度的偏见,使其更公平和有效。不过,即便在这些工具变得很普及时,有关它们究竟如何运作的信息我们也知之甚少。提供这些工具的团体与组织很少公布各自用于确定风险的数据和算法。


我们需要知道更多,因为,很清楚,这类制度面临着一个根本性的问题:它们所依赖的数据是由一个刑事司法制度收集的,其中,种族在逮捕的可能性方面有着很大的影响,哪怕对于那些行为完全相同的人而言。而对于一台计算机来说,源自于有种族偏见的各种数据将势必使得黑人和拉丁裔被告比白人被告看起来更加危险。因此,数据驱动的风险决策加剧而不是消除了刑事司法制度中的种族偏见现象。


一个有偏见的未来?



更糟糕的是,风险评估工具通常评估一名被告被重新逮捕的危险性而不是在获释之后的整体行为。要是两名被告回到同一个社区,并继续像入狱前那样生活,那么黑人被告更有可能被重新逮捕。因而,这种工具将虚假地表现为有效预测了危险性,因为整个过程是可循环的:在逮捕方面的种族差别使得这些预测以及预测的正当理由产生了偏见。


在司法决策过程采用风险评估工具之前,各个司法管辖区应该要求正在运用的任何一项工具需经过一个彻底和独立的同行审查程序。我们需要更多的透明度和更好的数据来弄明白这些风险评估对不同种族的被告是否产生了不同的影响。制作风险评估工具的各个基金会和组织应该愿意向研究人员公布被用来构建这些工具的数据,以评估它们的技术是否存在着内部种族偏见和各种统计解释问题。


要让这些工具做出无种族偏见的预测,它们就必须使用无种族偏见的数据。除非我们相信有关逮捕的数据是准确的和没有种族偏见的,否则我们无法信任这些风险评估工具对我们人身自由所做出的重要决定。这些工具采用有偏见的历史来预测一个有偏见的未来,却没有向我们展示任何新的东西。(本文仅代表作者观点,原载于社科报总第1548期,图片来自网络)


社会科学报
微信号:
shehuikexuebao

欢迎转载原创文章。如转载,请注明:本文首发于社会科学报,

微信号:shehuikexuebao。


长按识别二维码

立即添加关注

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存