郑志峰:人工智能时代,如何保护我们的隐私? | 前沿
中国民商法律网
本文选编自郑志峰:《人工智能时代的隐私保护》,载《法律科学(西北政法大学学报)》2019年第2期。
【作者简介】郑志峰,西南政法大学民商法学院讲师、人工智能法律研究院自动驾驶法律研究中心主任,法学博士。
全文共2874字,阅读时间约9分钟。
人工智能时代正在到来,数据是人工智能的基础,算法是人工智能的本质,人工智能越智能就越依赖数据的喂养和算法的支持,由此引发严重的隐私危机。西南政法大学民商法学院郑志峰讲师在《人工智能时代的隐私保护》一文中,重点探讨人工智能时代的隐私危机,分析现有隐私法律保护路径的应对及不足,提出可能的解决策略,以期为我国人工智能的法律规制提供一些借鉴。
一、人工智能时代的隐私危机
人工智能的核心是数据和算法,人工智能越智能就越需要海量的个人信息作支撑,也意味着其处理个人信息的能力越强,由此引发严重的隐私危机。具体而言:
第一,人工智能增强了对隐私的直接监控能力。各式各样带有传感器和处理器的人工智能产品不断涌入人们的学习、工作和生活中,监视着人们在物理空间与网络空间的一举一动,极大地增强了对隐私的直接监控能力。
第二,人工智能带来了更多的隐私获取性。新型人工智能产品层出不穷,使得原本私密的空间和信息不断受到侵蚀,也给获取隐私带来了更多新的获取点。透过这些产品,政府、企业、私人和黑客获得了一个可以直接窥探我们生活隐私的绝佳机会。
第三,人工智能具有超强的“画像识别”能力。借助物联网、大数据等技术,人工智能的数据整合和分析能力得到极大的增强,能够轻易地描绘出用户的完整“画像”,潜藏着极大的隐私风险。
第四,人工智能本身将成为隐私信息的载体。人工智能的社交性质可能会产生一种新的高度敏感的隐私信息,被称之为“设置隐私”。人们通常将自己的特殊个性或喜好编入社交型机器人程序之中,随着交互的深入,人们将逐渐展现其最为私密的心理属性,这些设置信息也就负载了人们的隐私。
第五,人工智能的算法并不完美。一方面,算法可能导致偏见或歧视,人工智能的自动化决策需要算法的喂养,如果数据本身存在偏见或歧视,其自动化决策也充满偏见或歧视;另一方面,算法存在“黑箱”问题,开发人员很难识别或解释人工智能决策背后的逻辑原理。
第六,人工智能侵害隐私的行为具有迷惑性。随着人工智能越来越像人类,人们也会越来越将它们视为准人类或克隆人,而非单纯的工具,人们将会更加愿意与它们分享私人生活中的点滴,这使得它们的隐私入侵行为更具迷惑性。
第七,人工智能侵害隐私的后果非常严重。首先,随着人工智能越来越多地参与人们的生活,占据那些本该私密的时间和空间,人们独处的机会将会越来越少,通过隐私来保护人们独处的时间与空间的基本价值遭到削弱。其次,人工智能会造成信息茧房,通过算法只推送人们所感兴趣的信息,进而在不断重复中固化偏见与喜好,人们就再难接受异质化的信息和不同的观点。最后,人工智能可能会造成物质性损害。人工智能侵害隐私不仅造成严重的精神痛苦,还因其具备与现实世界进行物理性交互的能力给人们带来人身和财产损害。
二、传统隐私保护法律的应对及其新发展
(一)传统隐私保护法律的应对
通说认为,隐私权的概念起源于美国。美国形成了“大隐私权”的保护模式,即通过不断丰富隐私权的法律保护体系来应对网络时代的个人信息保护问题。欧盟各国历史上对隐私权的保护一般通过具体人格权与一般人格权的方式来进行,在互联网时代,又逐渐形成了“大个人信息”的保护模式,即通过专门的个人信息保护法来应对隐私问题。但面对人工智能时代的新挑战,第一代个人信息法律保护框架捉襟见肘,表现为用户控制模式难以继续奏效、数据控制者的设定受到挑战、事后救济模式遭遇质疑以及法律中心主义亟需拓展。对比而言,经过多年发展,尽管我国涉及隐私保护的法律规范已经不少,但整体上仍处于欠发达状态,特别是对于信息隐私的保护尚处于起步阶段,难以应对人工智能时代的隐私危机。
(二)欧盟《一般数据保护法》的最新发展
面对人工智能时代的隐私危机,欧盟的《一般数据保护法》率先予以回应并做出以下努力:1.第2条第1款的规定明确了调整对象。2.第13条和第14条的规定增强了信息处理的透明度。3.第15条第1款、第17条、第20条与第22条第1款的规定分别赋予用户访问权、被遗忘权、数据携带权及拒绝权和解释权,从而扩展了用户权利。4.第22条第4款规定禁止对个人敏感信息进行自动化处理。5.引入隐私设计理论。该法第25条明确引入隐私设计理论,其第2款又确定隐私默认保护义务并通过第35条规定隐私影响评估义务。
三、我国人工智能时代隐私保护制度之构建
(一)完善隐私保护的法律体系
为健全隐私权保护法律体系,一方面要在《民法典》人格权编和侵权责任编中,通过重构侵权规则等方式来强化对隐私权的保护;另一方面,要积极制定《个人信息保护法》来重点回应人工智能时代的隐私保护问题。
在《个人信息保护法》的制度中,要重点关注以下制度的构建:1.更新通知同意机制。其一,健全通知规则。数据控制者除应向用户披露一般的信息之外,还应特别向用户披露以下信息:自动化处理的逻辑程序信息、该处理的重要性以及其对于用户可能造成的影响。同时,数据控制者还应以明显、清晰、易理解的方式通知用户,确保通知能够有效到达用户。其二,完善同意机制。处理个人信息要取得用户的明示同意,对个人敏感信息要设置更加苛刻的同意条件。2.丰富用户权利。借鉴欧盟《一般数据保护法》,起码应当赋予用户数据携带权、被遗忘权、拒绝权和解释权。3.设置自动化处理禁区。个人信息有敏感信息与一般信息之分,前者与人们隐私关系重大,理当予以特别保护。法律应当禁止对个人敏感信息进行自动化处理,以便全面保护人们的隐私。4.强化数据控制者的法律责任。
(二)重视隐私保护的技术路径
面对日新月异的人工智能技术,企图依靠单一的法律规则来保护用户隐私是难以奏效的,必须要更新隐私保护策略。对此,隐私设计理论被认为是最好的选择。1.确定隐私设计原则。主要包括以下七大原则:积极预防而非被动救济;隐私默认保护;将隐私嵌入设计之中,使其成为系统的核心组成部分同时又不损害系统的功能;功能完整——正和而非零和,主张实现用户、企业等多方共赢全生命周期的保护,主张为用户隐私提供从摇篮到坟墓全过程的保护;可见性和透明性;尊重用户隐私,确保以用户为中心。2.重视隐私增强技术。隐私增强技术主要指那些增强用户个人信息保护的技术,包括编码、加密、假名和匿名、防火墙、匿名通讯技术等。3.重视隐私影响评估制度。所谓的隐私影响评估,主要指协助企业识别、最小化系统隐私风险的工具,这是践行隐私设计理论的重要工具。
(三)探索隐私保护的市场机制
完善个人信息利用的市场交易机制,有助于增强人工智能时代用户隐私的保护。具体措施为:1.尝试个人信息有偿使用机制。数据对于人工智能是如此的重要,用户理当有权就自己提供的个人信息收取使用费。原因是个人信息具有可交易性,交易也符合个人信息本身的价值,且个人信息有偿使用制度可以增强用户的隐私保护,也有助于提高企业竞争力。2.探索个人信息交易的具体规则。在交易客体上区分敏感信息与一般信息,禁止交易敏感信息而鼓励交易一般信息;交易价格通过市场来发现;交易形式上寻求公开的市场交易是保障公平最好的方式;政府要加强对交易的有效监管。
(四)确立隐私保护的伦理原则
为更好保护人们的隐私,引导人工智能发挥积极的作用,应当确立透明原则、非歧视原则、安全原则、控制原则等伦理原则。
面对人工智能时代提出的新挑战,我们应跳出传统单一的法律保护思维,探索一条“多管齐下,激励相容”的隐私保护路径,综合运用法律、技术、市场、伦理等手段,在强化人们隐私保护的同时,也要充分发挥个人信息的利用价值,最终实现用户、企业等各方共赢,促进人工智能产业的发展和社会最大福祉的增进。
推荐阅读
近期好文
责任编辑:李浩、王嘉睿、袁玥
图片编辑:金今、张凌波