查看原文
其他

【数据法学】Joshua New,Daniel Castro:算法问责与监督路径选择

Joshua Daniel 大数据和人工智能法律研究 2022-11-09

B D A I L C 

 欢 迎 关 注 


Claude Mone · Sunset on the Seine at Lavacourt, Winter Effect




算法问责与监督路径选择
文 / Joshua New and Daniel Castro译 / 中国政法大学法学院硕士研究生 姜开锋



算法问责制算法问责制(Algorithmic accountability):       算法系统应设有多种控制方式,以确保应用者在使用过程中能够检验算法是否依其意图工作并能够对算法产生的有害结果进行识别和纠正。



20世纪90年代和21世纪初,随着公司使用全球互联的网络开展创新,互联网经济有了蓬勃的发展。在刚刚过去的十年间,公司开始广泛使用数据来提高生产和服务效能,世界进入了数据经济时代。今天,算法经济的兴起引领了世界经济的又一次变革,经营者的成功与他们使用人工智能技术实现自动化的能力直接相关。

上述每一种新经济形式的出现都衍生出了大量的政策问题,其解决方案已成为决定数字经济创新成败的重要因素。美国一直以来都是数字经济发展的引领者,在信息技术的研发和使用上走在各国前列。其成功在很大程度上归因于国家在制定应对技术进步的政策时未采纳所谓的“预防原则”(the precautionaryprinciple),即某项创新在安全性未被确证之前不得应用于实际的原则;并拒绝了政府应当扮演技术进步的减速带甚或路障的理念。美国政府认为,应当采行鼓励创新的理念——绝大多数创新是对社会有益的,政府的角色是为创新技术的应用铺路奠基,并在确有必要时给创新设置一些“栏杆”,以保证公共安全。

在互联网经济时期,确保美国在该领域取得成功的规则包括“互联网免税法案”(the Internet Tax Freedom Act)和“通信规范法”(theCommunications Decency Act)第230条;前者禁止联邦、州和地方政府对互联网接入征税或者对电子商务多重征税、歧视性征税,后者则规定互联网服务提供商对其用户的犯罪活动无须负责。[1]在数据经济时期,则意味着政府要避免制定笼统的数据保护规则,限制数据的共享和重复利用;而是应该注重为特定的行业设计量身定制的规则,从而使大多数行业能够自由地开展创新。这些规则形成的核心监管环境,有助于诸如亚马逊和eBay或者谷歌和Facebook之类的公司蓬勃发展,并为欧洲所采取的预防性的、限制创新的规则提供了一个可供选择的替代项。

今天,随着数据经济转变为算法经济,要求世界各国在算法经济的监管中应用预防原则的呼声越来越多。许多意见团体呼吁美国抛开其一直以来的蜻蜓点水式的监管方式,将欧盟的一系列政策移植进来,特别是新颁布的通用数据保护条例(GDPR)。然而,数据创新中心的研究显示,GDPR正在将欧洲拖向人工智能应用领域的第二梯队。[2]预防原则无论对于在数字经济中取得空前成就的美国来说,还是对于希望复制这一成就的其他国家来说,都将是一条错误的道路。

要求对算法,特别是人工智能,进行严格监管的呼声源于广为流传的错误观念。该观念对技术存在固有的疑虑,认为有损个体利益的技术形式往往也对团体组织具有极大的吸引力,而且现有的法律不足以有效监管这类技术的使用。事实上,人们担心算法会暴露和加剧人类的偏见,包括助长歧视和剥削。而且这一担心左右了政策制定者和监管者应当如何应对算法决策的讨论。[3]关于算法潜在危害的一些高调的报道揭露了某些算法决策的高风险,如应用于刑事司法系统中的风险评估算法表现出种族偏见的倾向,广告算法给求职者中的男性推送更多的高薪就业机会。[4]但是,这些风险成真的可能性往往被夸大了,因为风险鼓吹者们错误地认为市场的力量无法阻止前期的错误或者有缺陷的系统被广泛地应用。而且,他们迄今为止所提出的方案并不足以解决相关的问题。有些方案会限制创新,比如有人提出禁止使用无法解释其决策的算法——即便它们比那些能够解释的算法更为精确。有些则既限制创新也无法为消费者提供充分的保护,例如强制企业披露其算法源代码的方案不仅不能有效地保护消费者,还将引起知识产权保护的问题。

幸运的是,在这些有缺陷的方案之外,还存在另外一条道路供政策制定者们选择。他们不应一味地追求严苛的监管或者对这类方案的弊端不闻不问;而应采用既侧重于轻度管控又行之有效的方案,为特定的受监管行业设计量身定制的规则,以促进算法经济的发展,同时尽量减少潜在的危害。监管者面临的挑战来自于这样一个事实,即创新活动本身就蕴含着风险和错误——这些监管者潜意识里想竭力避免的事情。然而,从社会角度来看,由于公司的恶意、疏忽、故意忽视或者无能而对消费者产生伤害的错误与由于公司致力于创新和惠及社会而对消费者产生伤害的错误之间存在着本质的差异。同样,在公司违反规定并对消费者或竞争对手造成重大损害的行为,和造成很少伤害或根本没有伤害的行为之间也应该加以区分。如果监管者不考虑其主观动机和客观损害,而一概采用一揽子的同种处罚措施,必将导致创新趋少的局面。[5]

监管者在保护消费者的过程中,为了实现平衡,应当基于损害程度对在算法使用中产生危害的公司采取不同标准的强制措施:对无意的和无害的行为施以较轻的惩罚,或者不惩罚;对故意的和有害的行为施以较重的惩罚。监管者应该将监督重点放在具体使用算法的应用者身上,而不是放在开发者身上;因为算法的应用者决定着其影响社会的具体方式。

这种监管应该建立在算法问责制的基础上——即算法系统应设有多种控制方式,以确保应用者在使用过程中能够检验算法是否依其意图工作并能够对算法产生的有害结果进行识别和纠正。

当算法造成伤害时,监管者应在算法问责制原则的框架下,判断应用者是否能够证明其在使用算法时不存在恶意或者疏忽,并评估应用者在尽量减少算法的危害方面是否在负责任地行事。评判的结果作为他们决定是否处罚以及在何种程度上处罚算法应用者的依据。以这种方式来定义算法问责制,也能够激励应用者去主动保护消费者免受伤害,并且在不限制其创新能力的前提下,给他们管控风险提供了便利。

这种方法将有效地防范产生有害后果的算法;而且不会将使用算法的公共机构和私人组织置于过度繁琐的规则之中,进而限缩算法可以提供的好处。




参考文献

(请向下滑动)


REFERENCES

1.47 U.S.C § 230.

2.Nick Wallace and Daniel Castro, “The Impactof the EU’s New General Data Protection Regulation on AI” (Center for DataInnovation, March 2018),

http://www2.datainnovation.org/2018-impact-gdpr-ai.pdf.

3.Jeremy Jun, “Big Data Algorithms CanDiscriminate, and It’s Not Clear What to Do About It,” The Conversation, August13, 2015,

http://theconversation.com/big-data-algorithms-can-discriminate-and-itsnot-clear-what-to-do-about-it-45849;Ramona Pringle, “When Technology Discriminates: How Algorithmic Bias Can Makean Impact,” CBC, August 10, 2017, 

http://www.cbc.ca/news/technology/algorithms-hiring-biasramona-pringle-1.4241031.

4.Laurel Eckhouse, “Big Data May BeReinforcing Racial Bias in the Criminal Justice System,” The Washington Post,February 10, 2017, 

https://www.washingtonpost.com/opinions/big-data-may-be-reinforcingracial-bias-in-the-criminal-justice-system/2017/02/10/d63de518-ee3a-11e6-9973-c5efb7ccfb0d_story.html?utm_term=.e1aa634978c3;Julia Carpenter, “Google’s Algorithm Shows Prestigious Job Ads to Men, but Notto Women. Here’s Why That Should Worry You.” July 6, 2018,

https://www.washingtonpost.com/news/theintersect/wp/2015/07/06/googles-algorithm-shows-prestigious-job-adsto-men-but-not-to-women-heres-why-that-should-worryyou/?utm_term=.3c32398c2f9f.

5.Daniel Castro and Alan McQuinn, “How andWhen Regulators Should Intervene,” (Information Technology and InnovationFoundation, February 2016),

http://www2.itif.org/2015-how-when-regulators-intervene.pdf.



本文仅作学习交流之用


月夜 · 朱士杰





往期荐读




编辑:钟柳依


欢迎点击“阅读原文”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存