王莹|算法侵害类型化研究与法律应对 ——以 《个人信息保护法》 为基点的算法规制扩展构想
点击蓝字关注本公众号,欢迎分享本文
——以 《个人信息保护法》 为基点的算法规制扩展构想
作者:王莹,中国人民大学未来法治研究院、 中国人民大学刑事法律科学研究中心副教授。
来源:《法制与社会发展》2021年第6期(第133—153页)。(责任编辑:郑怀宇)
摘 要
算法的普遍应用给个人及社会带来如下类型的侵害:算法标签、算法归化、算法操纵、算法歧视与算法错误。传统部门法分析框架无法对算法侵害进行完全的、有效的规制。GDPR和我国最新通过的《个人信息保护法》提供了源头数据规制与数据赋权制衡的应对方略,不仅规定了数据处理原则、个人数据权利,还专门引入自动决策概念,设置专条进行规制,形成了从部门法到数据法的算法初步规制框架。但我国《个人信息保护法》的个人数据保护和个人赋权制衡的进路过于狭隘,难以对系统性的、多维的算法侵害及算法自动决策进行全面、系统的规制,故有必要对《个人信息保护法》第24条自动决策条款进行扩展,引入人工干预权,进一步丰富数据权利束,并超越个人数据权利思维,从算法侵害风险防御视角出发,进行整体性的、纵向的、动态的算法规制,积极探索算法可解释性、可问责性的解决方案,加强算法责任研究,沟通算法事前规制与事后规制,并形成二者的闭环,以应对算法社会普遍存在的算法侵害风险。
关键词:算法侵害;数据与个人信息保护;算法可解释性;算法可问责性;算法影响力评估
在人工智能时代,算法利用人类活动日益数字化所积累的海量数据,不断扩展其应用场景的广度与深度,企业和公共机构广泛应用算法决策来决定是否向个人提供商品、服务、工作岗位或公共产品,司法机关在算法决策的辅助下进行司法裁量。对算法技术风险的担忧与对算法可信赖性、可解释性、可问责性的探讨逐渐成为全球性的重要公共议题。我国法学界近年来围绕大数据杀熟、算法歧视、算法黑箱、算法共谋等算法决策法律问题展开探讨,《电子商务法》《消费者权益保护法》等也相继从立法层面作出回应。2021年8月20日通过的《个人信息保护法》(下文简称《个保法》)不仅规定了数据处理原则、个人数据权利,还专门引入自动决策概念(第69条),设置专条进行规制(第24条),形成了从部门法到数据法的算法初步规制框架。本文尝试结合人工智能算法技术特征与既有法律框架资源对算法风险或侵害进行类型化界定,探讨将算法侵害纳入现有的部门法框架进而运用既有法律资源进行应对的可能性,分析欧盟《一般数据保护条例》(General Data Protection Regulation)(下文简称GDPR)与我国《个保法》对算法侵害的数据法规制路径,并在此基础上提出应对算法侵害的算法规制扩展思路。
点击二维码关注法制与社会发展微信公众平台