连雪晴|人工智能时代美国个人数据保护研究
中国海洋大学马克思主义学院讲师,中国海洋大学法学院博士后科研流动站研究人员
要目
一、美国个人数据保护的研究现状二、美国个人数据保护的分散模式三、美国个人数据保护的基准设定四、美国个人数据保护的三方角色五、结语人工智能的广泛应用使得个人数据保护需求日渐增长,由于数据与隐私的密切联系,美国并没有选择创设崭新的数据权利,而是将个人数据保护纳入信息性隐私权的保护内涵之中。美国当前个人数据保护呈现分散块状模式,健康数据、金融数据等具体场景中的数据保护各自为政。个人数据保护分散发展的历程之中,也产生了公平信息实践原则、隐私的设计与再设计原则、数据保护影响评估等数据保护基准。国家、行业和个人的三方角色在此过程中也逐步明晰,行业自律成为个人数据保护的优位选择,国家力量则在行业自我监管不足时顺势进行补充与方向引导,个人积极提升素养并参与到规则的制定与监督之中,则有助于个人数据保护制度设计的不断优化。
人工智能浪潮呼啸而至,个人数据保护的紧迫性无须多言。保护个人数据的根本性缘由在于个人隐私意识的兴起。个人的姓名、年龄、婚姻状况、家庭住址、工资收入、车辆登记等数据,正在悄无无声地被搜集与被使用。电子数据记录着公民的全部足迹,智能机器执行着过去无法想象的定位追踪功能。而当大型科技公司毫无忌惮地开启移动设备的麦克风、甚至摄像头时,个人的隐私似乎沦为空洞而无效的法律词语,“心灵的平静”(peace of mind)只能是隐私权的美好设想,现实空间被云端空间监管并操控,平行世界中的《西部世界》正在日复一日地上演。因此,有鉴于数据与隐私的密切联系,美国并没有选择像欧盟一样创设崭新的数据权利,反而是将个人数据的保护纳入信息性隐私权的内涵之中。以信息隐私权的诞生与发展为起点,以个人数据分散立法为讨论,以个人数据保护的基准设定为核心,下文分别讨论了国家、行业和个人在美国个人数据保护中的角色定位,试图为国内个人数据保护提供一份可能的域外参照。
一、美国个人数据保护的研究现状
信息隐私,也即个人数据保护的探讨,是美国学界关于人工智能探讨的主要焦点,美国宪法正文以及修正案文本并没有直接规定个人的隐私权,但最高法院通过一系列判例在宪法修正案中找到了“宪法隐私权”的身影。
早在1891年,在Union Pacific Railway v. Botsford案中,法院认为,不能强迫原告在民事诉讼中接受外科检查,原因在于,没有一项权利比个人拥有和控制自己的权利更神圣,该项权利不受他人的任何限制或干涉。1965年,在Griswold v. Connecticut案中,法院多数意见认为,宪法实际上保护了婚姻中的隐私权,康涅狄格州限制已婚夫妻使用节育工具的法律违反了宪法。多数意见解释道,虽然宪法没有明确保护一般的隐私权,但权利法案中的各种保障创造了半影(penumbras),建立了隐私权的区域(zone),第一、第三、第四和第九修正案共同创造了婚姻关系中的隐私权。1973年,在Roe v. Wade案中,联邦最高法院裁定,得克萨斯州禁止堕胎的法律限制了孕妇在妊娠过程中的自由选择权,违反了美国宪法第十四修正案所保护的个人自由,构成违宪。多数意见认为,宪法保护公民的隐私权,而隐私权包含妇女自主决定是否终止妊娠的权利。
而在1977年的Whalen v. Roe案中,信息性隐私权第一次在最高法院登场。为应对药物滥用的加重,纽约州议会通过了《纽约州管制药物法》(New York State Controlled Substances Act),要求医生在开具可能有害的处方药时必须填写一份正式的处方表格,包括医生姓名、配药房、药物名称、剂量以及患者姓名、地址和年龄等信息,该表格的副本将被送往纽约州医疗部门,进行统一的电子化存储,期限为五年。然而,政府强制性报告和存储要求,是否侵犯了病人的隐私权?地区法院判定该法案违宪,不得实施,纽约州医疗局不服并随即上诉。最高法院认为,地区法院的裁判依据不够充分,议会有权制定管制药物滥用的法律。尽管Stevens法官在多数意见中将隐私权的范围(zone of priva⁃ cy)具体到两个方面:一是个人信息的不公开,二是不受政府控制地做出某些私人决定。但多数意见认为,公开处方信息的风险远小于缺少法律规制带来的犯罪风险,收集处方信息的行为是国家警察权的表现,并没有违反宪法。虽然该案最终并没有判定纽约州的法律违宪,但该案细分隐私权的范围,也为后续信息隐私的宪法保护奠定基础。
信息性隐私权不仅局限于个人的医疗健康数据,大部分与个人相关的数据都可以被归入信息性隐私权的范围。1886年,Boyd v. United States案的判决确认,未能得到搜查令(warrant)许可,公务人员搜查私人纸张的行为,违反了宪法第四修正案。1966年,Schmerber v. California案的判决确认,公务人员搜集个人的血液、头发、唾液等数据,需要获得宪法第四修正案所要求的搜查令。1967年,Katz v. United States案的判决,明确了国家监听私人电话的行为违反了宪法第四修正案,并促成《电子通讯隐私保护法》(Electronic Communications Privacy Act)的出台。1985年,Winston v. Lee案的裁决明确了,强迫嫌疑人接受手术以获得证据(身体里的子弹)的行为,违反了宪法第四修正案,属于不合理的搜查。2001年,Ohio v. Reiner案的判决确认,根据第五修正案,证人无需将自己的隐私数据提供给政府。2004年,Freedman v. America Online案的裁判确认,在没有搜查令时,政府要求网络服务提供商(Internet Service Provider)提供用户的真实身份信息,是违宪行为。2010年,United States v. Warshak案的判决认定,用户对于自己在互联网服务提供商中存储、发送或接收的电子邮件内容,享有合理的隐私预期。公务人员在没有搜查令的时候,强迫互联网服务提供商提供用户的电子邮件内容,属于违宪行为。
在判断某项数据是否属于宪法保护的信息隐私时,隐私的合理期待(reasonable expectation of privacy)理论至关重要。宪法隐私权的基本要求在于,隐私必须具备合理期待的可能性。例如,个人丢弃的在屋外的垃圾,由于可能被儿童、拾荒者、窥探者和其他群体接触,便不具备这种期待。个人自愿暴露给第三方的信息,同样不具备合理期待,而此项理论也正是前文所提到的隐私的第三方原则。因此,如果未能满足隐私的合理期待性,个人的信息性隐私权将无从谈起。例如,水门事件之后,尼克松辞去总统职务,并且执行其与美国联邦总务署(General Services Administration)签订的协议,将其在任期间的文件与录音资料保管于加州靠近其住宅的位置,联邦总务署与尼克松均不得单方接近该资料。不久之后,国会通过了一项法案(Presidential Recordings and Materials Preserva ⁃ tion),废除了该协议,要求尼克松上交在任期间的全部资料以便公众审查。尼克松认为该法案违反了三权分立与总统特权原则,侵犯了个人隐私权以及宪法第一修正案的权利。而最高法院驳回了尼克松的诉求,并论述道,“法案并没有侵犯上诉人的隐私权。作为公众人物,上诉人对隐私的合理期待十分有限。而从大量的总统文件中挑选出少量的私人文件是一件不可能完成的任务,除非经过复杂的审阅。然而,经过大量而复杂的审阅之后,上诉人的隐私也将无存在的意义”。因此,该案虽然是信息隐私(information privacy)的探讨,但鉴于政治人物特殊的身份,隐私的合理期待可能性大为减少,受保护的程度也受到相应的折损。
隐私的第三方原则(third party doctrine)又是信息隐私中备受争议的关注点。Susan W. Brenner认为,宪法隐私保护中最具争议的是数据隐私的保护,特别是存在于第三方的纪录。在Miller案中,法院裁定,在个体主动移交给第三方(在此案中是一家银行)的数据中,不存在合理的隐私预期(no reasonable expectation of privacy)。三年后的Smith案再次重申了隐私的第三方原则,判定客户定期自愿提供给电话公司的电话号码不受第四修正案的保护。然而,随着第三方服务平台的迅速发展,越来越多的第三方搜集了个人主动提供的信息,第四修正案的这一漏洞正在迅速地扩大。不少学者建议修改、甚至推翻Miller案中的隐私第三方原则。Dean Galaro认为,Miller案的裁决已经四十年没有动摇了,第四修正案需要符合时代环境的重新解释。Brian Mund认为,根据隐私的第三方原则,即使社交媒体用户在加密保护的页面之后交流他们的信息,但是社交媒体帖子中没有用户的合理的隐私预期。然而第四修正案要求对个人数据进行更大程度的隐私保护,W. Faith McElroy直接建议最高法院推翻Miller案。实践中,美国联邦最高法院也开始放弃隐私的第三方原则,将个人手机的定位信息纳入个人合理的隐私期待范围之中。有鉴于此,Helen Nissenbaum提出了情境完整性理论(Contextual Integrity),将对隐私的充分保护与特定的语境紧密联系在一起,要求信息的收集、传播与特定语境相适应,并遵守在特定语境中发布的支配性规范,从而解决隐私第三方原则的失灵问题。
在上述原则性讨论之外,围绕信息隐私的探讨又细分为不同领域的信息隐私探讨,代表性主题有健康隐私、消费者隐私、教育隐私、雇员隐私等。由于消费者身份主体的数据保护呈现主流态势,本节将简要介绍消费者隐私保护的学界观点。首先,联邦贸易委员会承担了主要的保护消费者隐私的工作,但是联邦贸易委员会的表现并不是完美的。Alex Bossone认为,联邦贸易委员会没有对公司的数据安全措施提供足够的指导,也没有充分保护直接受到数据泄露伤害的消费者。由于隐私的伤害结果多数情况下是主观的,不同消费者对待隐私的伤害结果的态度可能是迥异的。Erin O'Hara O'Connor建议,联邦贸易委员会在仲裁消费者隐私案件时,可以在机会成本和自付费用两方面设定一个有效的补救“价格”,使高隐私价值的消费者能够提出索赔,同时取消低隐私价值消费者的索赔。再者,实质损害的认定标准过于苛刻,Nicholas Green建议,法院需要引进一个灵活的损害认定标准。这种不那么严格的立场也可以适用于原告所称的非经济性和非物质性的抽象伤害。在没有最高法院明确指导的情况下,联邦地区法院应采用实质性的风险分析(substantial risk analysis)。在联邦贸易委员会未能充分保护消费者隐私的空白之处,行业的自我监管继而上位发挥功效。Siona Listokin认为,行业对消费者数据隐私和安全的自我监管,被认为是对传统政府监管的一种灵活的替代和补充,但需要一个更为准确的隐私度量标准,从而评估行业监管对数据隐私的影响。
在不同领域的数据隐私探讨之外,数据是否属于宪法第一修正案所保护的言论也是美国学界的争议性问题。David S. Han认为,个人数据是中间价值(Middle-Value Speech)的言论。而机器所输出的数据则可能因为被“编辑”,而成为言论。这一问题在黑箱算法部分将得到更为详细的讨论,在此不再多议。总结而言,信息隐私因为领域的不同而呈现出不同的需求和保护差异,但是其基础理论具有共通性。隐私第三方原则所展现出的时代不适应,转而促成了情境脉络完整性理论的适时而出。不同于欧盟数据保护的独立创设,美国以消费者为身份主体的数据保护延伸了联邦贸易委员会的监管与执行权能,以更为柔和与顺畅的方式开展了数据保护的时代任务。而言论自由的辐射范围也拓展到数据属性,成为数据保护的波折曲目。
二、美国个人数据保护的分散模式
与欧盟统一的数据立法不同,美国目前仍未有一部联邦性数据保护法典。尽管近年来,美国参议院与众议院分别收到了涉及数据保护的多份提案,但这些提案至今仍处于讨论阶段。因而,美国目前的个人数据保护法散见于不同行业的单独立法,主要包括健康、金融、消费者、教育、就业等方面。由于篇幅所限,下文将仅着重介绍健康、金融数据的保护现状以及自动驾驶汽车中的数据保护。
健康数据的问题主要集中于患者向医护人员、医保公司披露的关于个人健康状况的信息,将被谁所知悉、利用与处理。出于鼓励患者向医生袒露病情以获得完善治疗的目的,通常认为,医生与患者之间的关系属于一种特权关系,类似于律师与客户之间的关系,医生不能被强迫要求作证。然而,这种观点并没有被美国的法律所承认,出于公共健康安全的考量,医生与保险公司可以被强迫公开患者健康数据。有鉴于此,为平衡个人隐私与公共利益的龃龉之处,1996年,美国国会通过了《医疗保险可携带性与责任法案》(Health Insurance Portability and Accountability Act,简称HIPAA),明确了相关实体的隐私、安全义务,从而规范了健康信息的流通,增强了个人隐私的保护。具体而言,HIPAA法案有六项需要特别说明之处。
第一,HIPAA的法规只适用于“医疗保险、医疗保健结算所和医疗保健提供者”(health plans, health care clearinghouses, and health care providers)三类主体,在法案中被称为涵盖实体(covered en ⁃ tities),因此,1996年版的HIPAA并不能调整所有的个人或商业实体。
第二,受保护的健康信息(Protected Health Information,简称PHI),必须满足可识别出具体个人的要求。一旦健康数据脱敏,便脱离该法案的保护。
第三,隐私规则是该法案的一大亮点。其一,涵盖实体必须设立专门的隐私官员与联络员,以负责实体内部的隐私政策与具体执行。其二,未经个人书面授权,涵盖实体不得使用或披露受保护的健康信息。其三,获得个人授权后,涵盖实体使用健康信息时,必须遵循最小必要原则(The Minimum Necessary Rule),将数据的使用控制在最低限度。其四,当涵盖实体使用受保护的健康信息时,必须向个人发出通知,也即隐私使用通知制度(Notice of Privacy Practices),个人享有访问权、修正权、投诉权、限制权等权利。其五,如果涵盖实体想要将患者的健康信息提供给欲使用该信息进行二次营销的第三方,则必须首先获得患者的授权。
第四,安全规则也是该法案的重要内容之一。首先,法案的隐私规则适用于全部形式的受保护的健康信息,而安全规则仅适用于电子化的受保护的健康信息(e-PHI)。其次,安全规则要求为e-PHI设置行政、物理和技术保护措施。行政保护包括风险预测、授权访问、安全培训以及处理安全事件的程序等。物理保护包括设备安全计划、记录访问限制、安全处理记录以及数据备份等。技术保护措施包括登录身份验证、加密控制等。最后,安全规则的保护措施要么是法案所规定的,要么是“可寻址的”(Addressable Security Standards),也即,实体可以采取合理的替代性措施。
第五,HIPAA并没有将行动权赋予个人。违反HIPAA的民事行为由美国健康与公众服务部的民权办公室(OCR in HHS)负责采取行动。违反HIPAA的刑事行为将由美国司法部负责采取行动。此外,各州检察长也可以参与执行HIPAA。
伴随着技术背景的不断前进,HIPAA也发生了一定的改变。2009年,国会通过了《健康信息技术促进经济和临床健康法案》(The Health Information Technology for Economic and Clinical Health Act,简称HITECH Act)。该法案作为HIPAA的增强版本,进一步加强了HIPAA的隐私规则(比如违规的高额处罚),并提出了违规通知制度(The Breach Notification Rule)。违规通知制度要求,如果涵盖实体所持有的受保护的健康信息,存在安全漏洞或处于类似的不安全的状况,必须及时通知个人,通知最迟不得超过危险发生的60天。2013年,美国健康与公共服务部(United States Department of Health and Human Services,简称HHS),发布了《综合最终规则》(Omnibus Final Rule)。对HITECH的安全规则与违规通知制度进行了部分修改,包括将覆盖实体(covered entities)范围扩大到商业伙伴(business associates),将数据保护时间从“无期限”改为“死后五十年”等。通过两次更新,HIPAA可以更好地应对医疗行业中的违规事件,但仍然不能完全解决所有问题。而其重要原因在于,现代社会是根据与健康相关的信息实现奖励和机会的分配,法律与技术可以使个人更好地控制健康数据,但却无法解决根本的社会分配问题。
对于多数美国公民而言,金融数据的主要表现形式是消费者信用报告(信用分数)。在美国的商业社会中,由于信用卡行业的快速发展,导致几乎所有的交易活动都依赖于个人的信用分数。一旦个人的信用分数过低,在日常生活的交易中,都会遭遇到困难与麻烦。信用分数来源于几家大型信用公司(Transunion, Experian, Equifax)提供的消费者信用报告(consumer credit report),而信用报告主要的分析对象是个人的金融数据。由于大型信用公司几乎掌握着全部美国公民的金融数据,一旦发生数据泄漏事件,将造成严重的隐私危机。为更好地保护个人的金融数据,美国国会通过了一系列法案以监管金融机构所掌握的个人信息。
其一,1970年的《公平信用报告法》和2003年的《公平和准确的信用交易法》。1970年,国会通过了《公平信用报告法》(The Fair Credit Reporting Act,简称FCRA),后于2003年,国会通过《公平和准确的信用交易法》(Fair and Accurate Credit Transactions Act,简称FACTA),部分修订了《公平信用报告法》,以管理信用报告机构,保护公民的金融隐私。
首先,在《公平信用报告法》通过后的四十年间,联邦贸易委员会主要负责《公平信用报告法》的规则解释和执行。虽然2010年,《多德-弗兰克法案》(Dodd-Frank Act)宣布成立一个新的联邦机构,消费者金融保护局(Consumer Financial Protection Bureau, CFPB),负责《公平信用报告法》的执法和规则解释。但是联邦贸易委员会仍然保留了一些《公平信用报告法》的执法权,并与消费者金融保护局分享这一权力。后于2012年,联邦贸易委员会和消费者金融保护局签署了一份关于协调执行《公平信用报告法》的谅解备忘录。
其次,消费者报告被允许公开的主要目的包括:其一,法庭命令;其二,本人的私人目的;其三,合理相关的就业、承保、交易目的;其四,确认支付儿童抚养费;其五,为了抚养儿童的国家计划;其六,《联邦存款保险法》(Federal Deposit Insurance Act)及其他法律的特殊规定。其中需要说明的是,信用卡公司的“预筛选”(Prescreening)行为,无须获得消费者的提前授权。
再次,《公平信用报告法》将行动权赋予个人。个人可以要求信用公司公布关于消费者信用报告的信息,包括报告所依赖的全部信息的来源、种类等等。《公平和准确的信用交易法》则更进一步,要求信用公司向个人免费披露他的信用分数。对于未经个人同意而公开信用报告的行为,个人可以对其提起诉讼,但涉及反恐与国家安全的行为除外。
然而,实践中的金融隐私保护并未达到预期。如Saver v. Experian Information Solutions案中,未能成功申请信用卡的原告,根据《公平信用报告法》起诉信用报告机构,理由是信用报告中包含虚假信息。法院最终判决,原告未能证明因信用报告信息不准确,而遭受《公平信用报告法》列举的损失,且《公平信用报告法》不要求机构检查每一份计算机生成的信用报告,从而找出异常信息。由于法院肯定了信用机构形式审查的合理性,进一步导致身份盗窃行为的泛滥,反向为个人隐私的保护设置了阻碍。
其二,1970年《银行秘密法案》。1970年,国会通过了《银行秘密法案》(Bank Secrecy Act),要求金融机构配合联邦调查部门侦查洗钱活动,具体而言,在美国境内,一天中超出一万美金的交易行为必须向政府汇报,在美国境外,一天之内超过五千美金的交易行为必须向政府报告。由于该法案可能导致个人隐私的泄漏,因此被质疑是否合宪。而在California Bankers Assn. v. Shultz案中,最高法院依旧延续了隐私合理期待的第三方原则(third party doctrine),认为当个人数据自愿交由第三方存储时,个人便丧失了隐私的合理期待,继而判定该法案合宪。
其三,Miller案与1978年《金融隐私权法案》。在1976年的United States v. Miller案中,美国最高法院认为个人在银行记录中缺乏隐私的合理期待,因为它们仅包含自愿传达给银行的信息,并且在银行日常工作中被暴露给员工。为了更好地保护金融机构持有的个人数据,消除Miller案的不良影响,国会于1978年通过了《金融隐私权法案》(Right to Financial Privacy Act,简称RFPA)。法案规定,未经个人同意,银行和其他金融机构不得向政府披露个人的金融信息,除非政府获得传票或搜查令的许可。但2001年的《爱国者法案》(USA Patriot Act)修订了该法案,要求银行和其他金融机构向调查恐怖主义的机构披露相关金融信息。
其四,1998年《身份盗窃认定和威慑法案》。为应对日益增长的身份盗窃现象,1998年,国会通过了《身份盗窃认定和威慑法案》(Identity Theft Assumption and Deterrence Act),将身份盗窃列为一项联邦刑事罪名,并且可以判处罚金。此外,《公平和准确的信用交易法》也提出了新的办法以降低身份盗窃的危害。例如,消费者仅需要向一个消费者信用机构发出欺诈提醒(One-Call Fraud Alerts),由该机构通知其他机构,并在四个工作日内锁定(block)有关的信用信息,如果个人提出要求,信用机构不得公开个人社会安全码的前五位数字。一旦发生身份盗窃,消费者有权要求信用公司公开相关的交易。即便如此,身份盗窃类犯罪依旧层出不止,有限的刑事处罚并没有从根源上解决这一问题。在多数案件中,法院认为,银行对信用卡申请人的信息审核只是简单的形式审查,一旦发生身份盗窃,银行并不需要承担责任。而且,身份盗窃的法规将重点放在刑事处罚上,忽视了如何避免身份盗窃这种根源性问题。
其五,1999年《金融服务现代化法案》(又名Gramm-Leach-Bliley法案)。为了加强金融市场各个机构的联系,提高金融机构的服务水平,《金融服务现代化法案》(Financial Services Modernization Act)允许金融机构共享每个附属机构(Affiliated Companies)拥有的“非公开个人信息”,个人无法阻止这种信息共享。附属关系的判定主要依赖于是否存在一个公司对另一个公司的控制,或“共同控制”的情况。如果金融机构与非附属机构的第三方分享个人的金融信息,那么金融机构需要提供个人选择退出(opt-out)的权利。
由于此种信息分享存在着隐私担忧,该法案也为个人的隐私设置了保护条款。首先,金融机构不能为了直接的营销目的,而透露个人的银行账号或信用卡号码,但向信用报告机构透露除外。其次,该法案要求金融机构将其隐私政策告知个人。再次,该法案要求联邦贸易委员会等机构建立安全规则。联邦贸易委员会于2002年制定了详细的规则,要求金融机构制定、实施和维护一个全面的信息安全计划。该计划应与机构的规模和复杂性、机构活动的性质和范围以及个人信息的敏感性相适应。最后,该法案并不优先于各州更大范围保护个人金融隐私的法案。由于《金融服务现代化法案》的选择退出设定通常导致消费者的不作为,并没有真正保护金融机构与第三方共享的个人金融信息。许多州都没有沿用这一设定,例如加利福尼亚州的《金融信息隐私法》(Financial Information Privacy Act),便为个人提供了选择加入(opt-in)的条款。根据该条款,未经本人的事先明确同意,金融机构不得出售、分享、转让或者以其他方式向非关联的第三方,披露非公开的个人信息。
其六,2010年《美国海外账户税收合规法》。为进一步打击逃税与恐怖主义融资行为,2010年,国会出台了《美国海外账户税收合规法》(Foreign Account Tax Compliance Act)。该法案要求全部的非美国金融机构,向美国财政部报告其所拥有的美国公民的财务信息。同时,该法案也要求美国公民主动向财政部汇报自己在海外账户中的财务状况。在Crawford v. U.S. Department of Treasury案中,原告质疑该法案的合宪性,认为联邦政府强制报告的要求违反了美国宪法第四修正案。但最终法院判定原告不具备充分的理由(standing)向该法案的合宪性发出挑战。毋庸置疑,《美国海外账户税收合规法》减损了美国宪法所保护的公民的金融隐私,而且“许多外国国家都有自己的隐私法,通常不允许金融机构向美国政府收集和报告个人的财务信息,美国试图向其他国家强加国内法,只能造成国际法的困境”。因此,该法案未来的走向不容乐观。
自动驾驶车辆与宪法第四修正案同样存在着一种紧张关系。由于自动驾驶系统的许多便利是以牺牲个人隐私和自治为代价的,用户个人有权知晓:自动驾驶系统的哪些数据是公开的?哪些数据是受到第四修正案保护的?自动驾驶系统如何保护自动驾驶车辆生成、发送和接收的数据,确保车辆可以在不被跟踪的情况下自由移动?如果自动驾驶系统将行车轨迹数据与制造商,甚至与公权力部门分享,是否意味着乘客完全丧失“隐私的合理期待”?
而在以往的案件中,法院多数情况下认为,在没有取得搜查令的前提下,警方搜集个人的行动轨迹属于违宪行为。2010年,在United States v. Maynard案中,哥伦比亚特区上诉法院认为,执法部门不得在没有授权的情况下使用全球定位系统(GPS)跟踪犯罪嫌疑人,这种使用违反了嫌疑人的第四修正案的权利。尽管使用GPS成功跟踪了嫌疑人的活动轨迹,并证明嫌疑人参与了毒品贩运。2012年,在United States v. Jones案中,警察在无搜查令的情况下,通过GPS追踪私人车辆的行动轨迹。最高法院最终给出的结论是,追踪行为违宪。2018年,在Carpenter v. United States案中,最高法院多数意见同样认定,警察在没有搜查令的情况下,搜集私人手机的移动位置记录违反了宪法第四修正案。由肯尼迪大法官提出的反对意见则认为,由于用户已经与无线运营商共享了位置信息,所以并不存在隐私的合理期待。但最高法院的判决反映出支持“镶嵌理论”(Mosaic theory)的态势,即使个人对于部分信息没有隐私的合理期待,但对一定总量的信息怀有隐私的合理期待。
就目前而言,包括移动轨迹在内的个人数据隐私与自动驾驶车辆的关系仍是可控的。用户可以通过选择是否“接受所有第三方cookies”,来决定是否与其他设备共享数据。但在未来交通数据共享更为便捷的时候,这种方式可能只会造成用户的隐私疲惫。因此,需要重新考量数据交互的发生方式以及用户和请求数据方的关系。令人遗憾的是,近年来关于车辆隐私安全保障的提案全部处于搁置状态。2015年,参议员Edward J. Markey曾向参议院提出《车辆安全和隐私法案》(Security and Privacy in Your Car Act of 2015,简称SPY Car Act of 2015),旨在建立新的网络安全标准(cybersecurity standards),以保护消费者免受车辆安全和隐私的威胁,但该法案并未能获得通过。2017年,参议员Edward J. Markey再次向参议院提出《车辆安全和隐私法案》(Security and Privacy in Your Car Act of 2017,简称SPY Car Act of 2017),在2015年提案的基础上,该法案明确了驾驶数据的透明度、用户控制和使用限制,但仍未能获得通过。同年,众议员Ted Lieu和Joe Wilson提出了《车辆安全和隐私研究法案》(Security and Privacy in Your Car Study Act of 2017),要求国家公路安全管理局重新研究必要的网络安全标准,该法案至今也未能得到通过。
在联邦法律缺席的条件制约下,自动驾驶车辆中个人数据的保护必须坚守的基础原则是,只允许自动驾驶车辆在以下特殊情况中侵犯用户的自由和隐私:(1)自由和隐私的减少将导致自动驾驶车辆用户责任的相应减少;(2)个人丧失的权利价值将被行政效率或其他可确认的社会利益所抵消。而目前的第一步,应当是将第四修正案的保护范围扩大至自动驾驶车辆中的个人数据,任何公权力机关对于此类数据的搜集行为都需要获得搜查令的许可。
三、美国个人数据保护的基准设定
当个人饱受技术风险困扰时,如何在技术的设计阶段降低风险发生的可能性与损害后果的严重性,推动了前置性风险预防的理论产生及具象应用。以个人数据保护中的公平信息实践原则为前瞻,隐私保护的理论演化为隐私的设计理论以及隐私的再设计理论,数据保护等要求同样可以依靠技术的事前设计而被内置于系统之中。然而,规范的引导性作用需要技术的转化,方能落地生根。数据影响评估则有利于在结果阶段矫正设计缺陷,从而达成更为优化的设计方案。
公平信息实践原则的前身为公平信息实践法则。1973年,美国联邦健康教育福利部(Department of Health Education and Welfare)发表《记录,电脑与公民权利:个人数据自动系统的咨询委员会秘书处报告》(Records, Computers, and the Rights of Citizens: Report of the Secretary's Advisory Committee on Automated Personal Data Systems),首次提出了适用于所有个人数据系统的公平信息实践法则(Code of Fair Information Practices,简称FIPs),这一法则的主要内容包括五个方面:第一,记录并保存个人数据的系统必须被明示;第二,个人有权被告知,何种私人数据被记录以及将如何被使用;第三,同意使用原则仅使用一次,二次使用数据时必须再次征求个人的同意;第四,保障个人随时改正、补充个人数据的权利;第五,个人可识别数据(identifiable personal data)的创建、存储、使用和传播,必须确保数据的可靠性,并采取措施防止数据的误用。公平信息实践法则本身并不是强制性法律规则,但却为美国联邦《有线通信政策法案》《电脑欺诈和滥用法案》《视频隐私保护法案》《电话消费者保护法》《儿童在线隐私保护法》等法案奠定基础,并且得到美国联邦贸易委员(FTC)的认可与执行。
在联邦贸易委员会向国会提交的1998年在线隐私报告(Privacy Online: A Report to Congress)中,FTC首次描述了被广泛接受的公平信息实践原则(Fair Information Practice Principles,简称FIPPs):通知、选择、访问和安全(Notice, Choice, Access and Security)。而在FTC向国会提交的2000年的在线隐私报告(Privacy Online: Fair Information Practices in the Electronic Marketplace)中,FTC再次重申,以消费者为导向的商业网站,如果在网上收集消费者的个人可识别数据或有关消费者的数据,必须遵守四项广为接受的公平信息实践原则:通知、选择、访问和安全。FIPPs所建议的执行方式(enforcement)包括:行业自律、为消费者提供私人补偿以及民事和刑事处罚。公平信息实践原则的益处有目共睹。公平信息实践原则为个人数据的跨境流动提供了普遍性共识,而且为行业倡导者和政策制定者提供了一个控制技术风险的基准。相比较于隐私概念的宏大与模糊,公平信息实践原则更为详尽且可操作。
然而,公平信息实践原则无法一劳永逸地解决个人数据的泄漏问题,随着人工智能技术的发展,公平信息实践原则逐渐显示出疲惫与软弱。首先,通知选择制度为公司和个体增加了负担,却没能得到预期的控制效果。公司和其他数据控制者背负着沉重的法律义务,个人承受着大量的通知,然而选择的作用却往往有限。现有的证据表明,隐私没有得到更好的保护。过量的通知可能会让个人产生隐私增强的错觉,但事实远非如此。其次,公平信息实践原则无法适应当前大数据与人工智能的浪潮。大数据的支持者认为,只有当数据被充分最大化使用,新型技术的优势才会被展现出来。然而公平信息实践原则主要被用来解决个人数据的未授权公开和不准确的数据等简单问题,其中数据最小化使用更是与大数据的根基相悖。再次,算法歧视问题和社交媒体的隐私干预,都成为公平信息实践原则的盲点。最后,公平信息实践原则专注于非情境化目标,比如“开放性”和“数据质量”,而忽视了设计(design)的作用。公平信息实践原则中的“安全保障”和“开放手段”等术语表明,设计可以补充隐私政策。遗憾的是,公平信息实践原则并没有提出任何具体的技术要求或设计指导。因此,公平信息实践原则未来的改革方向应当是关注设计(design)的作用。
而隐私设计理论的基本思想是在创建软件产品和服务时,以公平信息实践的形式“内嵌”隐私保护方案。有鉴于此,以公平信息实践原则为基础,在人工智能的技术环境中,隐私设计理论(Privacy by Design)逐渐成为流行的数据保护理念。
“隐私设计理论”(Privacy by Design,简称PbD)的概念与“隐私增强技术”(Privacy-Enhancing Technologies,简称PETs)的概念密切相关。1995年8月,由荷兰数据保护局和加拿大安大略信息委员会(Dutch Data Protection Authority and the Ontario Information Commissioner)联合发表的“隐私增强技术:匿名之路”(Privacy-enhancing technologies: the path to anonymity)报告,第一次提到了隐私设计理论。作为两国数据安全联合项目的副委员长,加拿大的Ann Cavoukian和荷兰的John Borking,对于隐私设计理论的贡献尤为显著。
2010年在耶路撒冷召开的第32届数据保护和隐私专员国际会议(The 32nd International Conference of Data Protection and Privacy Commissioners)明确了隐私设计理论是隐私基本保护的核心要素,并肯定了Ann Cavoukian在2009年提出的隐私设计理论七项核心原则。Ann Cavoukian认为,隐私的未来不能仅仅通过遵守监管框架来保证;相反,在理想情况下,隐私保障(privacy assurance)必须成为组织的默认操作模式。隐私设计理论是隐私增强技术的改进版,将零和博弈改进为正和博弈。隐私设计原则可以适用于所有类型的个人数据,特别适用于敏感数据,如医疗数据和商业数据,隐私措施的力度往往与数据的敏感性相称。隐私设计理论的目标是确保个人对个人数据的控制,对于数据控制者而言,需要践行下述七项核心原则:
第一,主动而非被动,预防而不是治疗(Proactive not Reactive; Preventative not Remedial)。隐私设计的特点是采用主动而非被动的措施,其能在侵犯隐私的事件发生之前预测并防止其发生。隐私设计理论不会坐等隐私风险的出现,也不会在隐私违规发生后立即提供补救措施——其目的是防止这种情况的发生。简而言之,隐私是事先设计好的,而不是事后设计的。
第二,默认的隐私(Privacy as the Default)。隐私设计是一项默认的规则,即使个人不采取任何措施,个人的隐私依然是受到保护的,隐私保护是被默认内置在系统之中的。
第三,隐私嵌入设计(Privacy Embedded into Design)。通过设计实现的隐私被嵌入到信息技术系统和商业实践的设计体系结构之中。隐私是系统的一部分,并且不会削弱系统的其他功能。
第四,完整的功能:正和,而不是零和(Full Functionality: Positive-Sum, not Zero-Sum)。隐私设计理论旨在以正和双赢的方式促成所有合法的利益和目标。
第五,全生命周期保护(End-to-End Life-cycle Protection)。从开始到结束,强大的安全措施对于隐私来说是必不可少的。这将确保所有数据都被安全地保留,并在流程结束后被及时安全地销毁。
第六,可见性和透明度(Visibility and Transparency)。隐私设计理论的组成部分和操作对于用户和其他相关方都是可见和透明的。
第七,尊重用户隐私(Respect for User Privacy)。隐私设计理论以用户为中心,要求架构师和操作人员通过提供充分的隐私默认、适当的通知等措施来维护个人的利益。
实践之中,欧盟GDPR接受了隐私设计理论,其正文第25条设计和默认的数据保护(Data Protec⁃ tion by Design and by Default,简称DPbDD)要求,考虑到技术的现状、执行的费用和处理的性质、范围、背景和目的,以及处理对自然人权利和自由造成的侵害程度风险,控制者应该在确定处理方式和处理过程中,实施适当的技术和组织措施,保护数据主体的权利。控制者应该实施适当的技术和组织措施以确保,在默认情况下,只有对每个特定处理目的有必要的个人数据才能被处理。该款适用于个人数据的数量,数据处理的程度,数据的存储期限和数据的可接触。特别是,这些措施应确保在没有个人干预的情况下,不向不确定的自然人提供访问个人数据的机会。2019年11月13日,欧盟数据保护委员会(European Data Protection Board,简称EDPB)通过了《第25条设计和默认的数据保护的适用指南》(Guidelines 4/2019 on Article 25 Data Protection by Design and by Default),要求数据控制者必须执行适当的技术、组织措施以及必要的保障措施,从而有效地履行数据保护原则,并且保障数据当事人的权利和自由。《适用指南》解释了25条核心概念的定义与要求,并向数据控制者提出了建议,以加强第25条的具体适用。
作为一种解决方案,隐私设计理论是一个不断发展的框架,适用于数据收集、存储和使用的发展过程。隐私设计理论提供了一种方法,允许公司、大学和机构将研究重点放在尊重用户的隐私利益上,并允许它们通过将安全和隐私作为所有服务设计的基础来持续赢得用户的信任。尽管隐私设计理论得到了普遍认同,但仍有学者质疑隐私设计理论的模糊性与自我执行的不足性,其需要外部力量的干预与激励。“虽然公司可以通过在新产品和服务的设计中引入隐私保护以改进其数据实践,但只要经济激励仍然不充分,或者设计隐私的含义不准确,公司就难以抓住主动权。因而,灵活的监管激励是必要的”。尽管隐私设计理论的概念具有延展性,但是对于公司而言,主动考虑设计隐私问题,而不是被动解决数据泄漏问题,是一项更为明智的选择。
系统设计的改革是渐进的,而非一蹴而就的。2011年加拿大学者Marilyn Prosch提出了隐私的再设计理论(Privacy by ReDesign),目的在于将Ann Cavoukian所提出的隐私设计理论适用于已经投入使用的系统,包括信息技术系统、商业实践系统和网络基础设施建设系统等。因此,隐私的再设计理论是隐私设计理论的过渡时期样本,其最终的目的是实现通过设计的隐私保护。
根据Ann Cavoukian的设想,隐私的再设计理论的执行包括三个阶段,分别是重新思考、重新设计和重新恢复(Rethinking, Redesigning and Reviving),简称为3R阶段。在重新思考阶段,核心目标是识别与目标系统相关的业务和隐私需求。此流程的一个关键问题是识别与业务需求一致的数据需求。许多公司可能会发现,公司所收集的数据远多于实现目标所需的数据,从而增加了隐私的风险。公司现有的隐私控制必须通过隐私设计理论来进行评估,并找出不足之处,从而重新规划公司的战略目标,制定出新的业务需求和隐私需求。在重新设计阶段,其核心目标是设计和开发新的控件,以符合在重新思考阶段确定的业务和隐私需求。该阶段的成果将是,一个全新的、改进的隐私控制方案被提出且通过测试。在重新恢复阶段,其核心目标是将全新的、改进的隐私控制方案纳入已经存在的系统之中。在必要的情况下,三个阶段可能会重复发生,直至得到一个功能完整的隐私增强方案。
隐私的再设计理论与隐私设计理论的目的与核心原则是一致的,本质是同一理论在不同阶段呈现出的不同面相。而在当前人工智能高歌猛进时期,对待已有的系统应当采用隐私的再设计理论,对待正在研发中的系统则应采用隐私的设计理论,从而在初始阶段将隐私风险最小化。在初始阶段切断权利侵犯的可能性,也将减少后期权利保护的成本,从而达成权利保护的投入最小化。而这一理论预设倚重于实践的圆满转化,方能达成预期的技术治理目标。
2019年由参议员Cory Booker和Ron Wyden提出的《算法问责法案》(Algorithmic Accountability Act),所创建的自动决策系统影响评估(Automated Decision System Impact Assessment)与数据保护影响评估实质相同。“自动决策系统影响评估”是指评估自动决策系统及其开发过程,评估对象包括自动决策系统的设计和培训所用数据,以评估系统对公平、歧视、隐私和安全的影响。通过对评估的方式、内容等方面的分析,欧盟《通用数据保护条例》第35条所创设的数据保护的影响评估,实质为算法影响评估的细化。在欧洲地区,GDPR所创设的数据影响评估与隐私影响评估密不可分。隐私影响评估起源于早期数据保护制度下的“事先核查”(prior checking)制度,这实际上是一种在数据处理系统开始处理数据之前,进行政府登记或颁发许可证的制度。随后有学者提出了监管影响评估(Sur⁃ veillance Impact Assessment),通过与利益相关者协商确定、评估并解决监管系统的风险。尽管各类影响评估的名称不尽相同,但其共性在于开放系统数据,包括向公众以及专业人士的开放,通过内部和外部的共同评论,评估系统的风险与影响。
GDPR对于数据保护影响评估的定义为,评估所设想的处理操作对个人数据保护的影响(an assessment of the impact of the envisaged processing operations on the protection of personal data)。评估必须开始于系统执行进行之前,评估需要搜集的内容包括:处理操作的过程与目的;为目的而进行的处理操作的必要性评价;对个人权利和自由的风险评估;以及公司的合规措施。同时,数据保护影响评估的过程是动态更新的,并且至少每三年进行一次重新评估或修订。尽管数据保护影响评估并不开放公众评论,但是公司需要咨询内部独立的数据保护官员的意见,并在适当的情况下咨询受影响的个人。公司被建议咨询外部专家(律师、学者等)的意见,但并不强制要求公司履行。因此,除评估内容不同之外,与《算法问责法案》所创设的自动决策系统影响评估相同,数据保护影响评估并不需要向外界公开,而且并不一定需要得到公众的声音与反馈。至于其他方面,包括操作的描述与目的、操作必要性、对个人权利和自由的风险、合规措施、定期更新等,与算法影响评估并不存在实质性差异,实则为算法影响评估的场景化表现。
四、美国个人数据保护的三方角色
个人数据的保护离不开公权力、行业和个人的三方努力。公权力的方向引导与事后纠偏具有强制性特征,虽能有效达成目标,但却缺乏及时反馈性能。行业自我监管能够敏锐捕捉数据保护缺失之处,从而针对性调整数据保护方式。在此过程中,个人的积极参与使得数据保护成为公权力与行业的监管重点,消费者组织的集体诉求更能充分反映个人数据保护的现实需求,从而优化个人数据保护设计。
虽然奥巴马政府曾经在2012年提出过《网络世界中的消费者数据隐私:在全球电子经济中保护隐私和促进创新的框架》(Consumer Data Privacy in a Networked World: A Framework for Protecting Privacy and Promoting Innovation in the Global Digital Economy),也曾建议通过一份全国性消费者隐私保护法案,但最终并未促成一份联邦性法律的生效。而坐拥硅谷众多科技公司的加州,则在2018年通过了号称美国“最严格的消费者权利和数据隐私保护法案”(the strictest user rights and data privacy law ever enacted in the United States)——《加州消费者隐私法》(California Consumer Privacy Act,简称CCPA)。《加州消费者隐私法》是一项旨在加强美国加州居民的隐私权和消费者权利保护的法案。该法案于2018年6月28日由加州立法机关通过,并由加州州长Jerry Brown 签署成为法律,于2020年1月1日生效。
首先,该法案明确保护了消费者的知情权、访问权和删除权,具体包括:(1)了解个人的何种数据正在被收集;(2)知道个人的数据是否被售卖或公开,以及对象是谁;(3)拒绝出售个人的数据;(4)查阅个人数据;(5)请求公司删除个人的数据;和(6)不因行使隐私权而受到歧视。
其次,该法案的适用对象包括在加州开展业务的任何公司,且包括任何满足下列条件之一的,收集消费者个人数据的营利性实体:(1)年总收入超过2500万美元;(2)拥有5万或以上消费者或其家庭的个人数据;或(3)年收入的一半以上来自销售消费者个人数据。
再次,与欧盟GDPR的个人数据定义不同,《加州消费者隐私法》将个人数据的定义扩展至家庭。个人数据是与某一特定消费者或家庭相关的、描述的、能够合理地直接或间接关联的信息。个人数据包括但不限于:(1)身份识别数据,如真实姓名、别名、邮政地址、在线身份识别地址、电子邮件地址、账户名、社会保险号、驾驶证号码、护照号码或其他类似的标识符;(2)商业数据,包括个人财产、购买、获得或考虑的产品或服务的记录,或其他购买或消费的历史或趋势;(3)生物数据;(4)互联网或其他电子网络活动数据;(5)地理定位数据;(6)音频、电子、视觉、热、嗅觉或类似数据;(7)专业或与就业有关的数据;(8)《家庭教育权利和隐私法》所规定的非公开的个人可识别的教育数据;和(9)消费者的侧写数据。
然而,个人数据不包括“公开可获得”(publicly available)的数据。“公开可获得”是指从联邦、州或地方政府记录中合法获取的信息。“公开可获得”并不意味着公司可以在消费者不知情的情况下,收集有关消费者的个人数据。如果个人数据被用于,与政府记录中维护和提供数据的目的不兼容的目的,那么数据就不是“公开可获得”。
对于加州居民而言,绝大多数情况中,其权利的行使需要委以他人。加州居民可以授权公司、活动家或者协会来代替行使选择退出(opt out)的权利。如果居民的个人数据被泄漏,可能会得到100至750美金的补偿,或者实际损失金额的补偿。加州居民可以要求加州总检察长(Attorney Gen⁃ eral)代为提起诉讼。如果居民的数据因为公司的疏忽而被泄漏、盗窃或公开,居民也可以自己提起诉讼。而这一点正是《加州消费者隐私法》备受批评的一处弱点,司法诉讼的提请权力主要被限定于总检察长,总检察长却难以应对全部的数据侵犯情形。加州现任总检察长Xavier Becerra曾试图推动一项修正案,赋予个人直接向数据处理公司提起诉讼的权利,但是并未能成功。此外,Xavier Becerra还支持了一项修正案,试图取消公司的“三十天修正期”(30-day cure period),而该修正案目前仍处于审议阶段。
对于公司而言,在消费者的要求下,公司必须披露收集的消费者数据、搜集数据的商业目的以及共享数据的第三方。公司必须履行消费者的拒绝或删除请求,且不得通过降低服务进行报复。公司如果要获得13岁以下用户的数据,必须得到父母或监护人的事前同意,如果要为特定目的而分享13至16岁用户的数据,需要得到明确的个人授权(affirmatively authorized),也即选择加入的权利。公司需要在公司主页上放置“拒绝销售个人数据”的链接,从而使得消费者可以选择退出个人数据的销售。公司需要提供消费者接触数据的方法,至少要提供一个免费的电话。在消费者选择退出之后的12个月内,公司要避免请求其再次“选择加入”。公司可以通过财务激励(financial incentives)方式鼓励消费者同意公司的数据搜集行为。如果公司故意违反了《加州消费者隐私法》的要求,每次违反行为的罚款上限是7500美金,而非故意的违反行为,每次的罚款上限是2500美金。
尽管《加州消费者隐私法》与欧盟GDPR均是为了保护公司所搜集、使用和分享的个人数据,且在术语的定义、为16岁下未成年人提供额外的保护、允许个人查阅自身数据等方面存在相似性,但是二者仍然存在着不同之处,包括适用的范围、搜集限制的性质以及责任规则等。总体而言,该法案赋予了消费者个人一系列数据权利,公司必须为保护消费者的数据权利而采取相应措施。如果公司发生了违规行为,总检察长有权以加州人民的名义代为诉讼,而消费者个人只能在公司的故意违规行为下,有权直接对公司提起诉讼。由于加州的特殊影响力(世界第四大经济体)以及隐私保护潮流的驱动,有学者甚至预测,“《加州消费者隐私法》可能成为联邦立法的潜在模式,也可能成为其他州效仿的法律,甚至在2020年生效时成为实际上的国家隐私法”。而事实上,在《加州消费者隐私法》通过之后,缅因州和内华达州分别通过了《消费者在线信息隐私保护法案》(Act To Protect the Privacy of Online Customer Information)和Senate Bill 220,这两份法案的核心框架均与《加州消费者隐私法》十分类似,只是在范围上有所限缩,《加州消费者隐私法》已然成为美国最具标志性的消费者数据保护法案。
由于技术全球化的不可逆转,国际行业组织的体量与日俱增。以代表性行业组织为例,行业组织通过实践沉淀,达成权利共识,从而为人工智能的权利保护设定基础标准。电子广告联盟是网络隐私保护的前沿组织,电子电气工程师学会是广为认可的技术专业人士协会,国际标准化组织是行业标准的权威组织,而第三方认证机构则为消费者提供了优先选择。虽然行业组织的成立时间、目标对象与执行方式截然不同,但均体现出实践导向的行业自我反思态势。
2009年,美国联邦贸易委员会开始调查互联网在线广告的隐私问题,并建议该行业制定自律准则。美国广告代理商协会(American Association of Advertising Agencies)、美国广告商协会(Associa⁃ tion of National Advertisers)、美国广告联盟(American Advertising Federation)、直接营销协会(Direct Marketing Association)、互动广告局(Interactive Advertising Bureau)、商务促进局(Better Business Bu⁃ reau)和网络广告计划(Network Advertising Initiative)集结在一起,形成了在线行为广告的自我监管项目,管理这个项目的组织被称为电子广告联盟(Digital Advertising Alliance,简称DAA)。电子广告联盟建立并实施了行业尽责的隐私实践,包括适用于桌面、移动网络及移动应用程序环境中的多站点数据的多方搜集原则。
2010年10月,电子广告联盟启动了AdChoices项目。该项目呼吁广告公司建立并实施负责任的隐私做法,从而增强隐私的透明度和消费者的控制能力。由于在线行为广告主要依赖于消费者的兴趣数据搜集,AdChoices项目要求,广告公司需要向消费者表明,何时收集或使用个人数据。通过点击图标(通常可以在在线广告的右上角找到),消费者可以了解更多关于广告公司收集数据的信息,并能够选择退出(opt-out)。该项目已经获得了超过200个参与方的履行,其中包括脸书、谷歌、微软、雅虎等大型公司。作为全球性行业协会,AdChoices项目在欧洲也有广泛的影响力。在TRUSTe所统计的十个欧洲国家中,2015年12月,有四分之一的消费者曾经点击过选择退出图标。
此外,电子广告联盟还拥有一系列关于保护消费者数据隐私的行业守则,包括《网络行为广告的自我监管原则》(Self-Regulatory Principles for Online Behavioral Advertising)、《多站点数据的自我监管原则》(Self-Regulatory Principles for Multi-Site Data)、《自我监管原则在移动环境中的应用》(Appli⁃ cation of Self-Regulatory Principles to the Mobile Environment)、《对跨设备使用的数据应用DAA的透明和控制原则》(Application of the DAA Principles of Transparency and Control to Data Used Across De ⁃ vices)和《在政治广告中应用DAA原则的透明度和问责制》(Application of the DAA Principles of Transparency & Accountability to Political Advertising)。如果消费者发现有公司违反了上述原则,可以在线向国家商业促进局项目(Better Business Bureau National Program,简称BBBNP)或数据营销和分析以及国家广告商协会(Data Marketing and Analytics and Association of National Advertisers,简称DMA-ANA)投诉,从而引发进一步的调查和处理。
以国家商业促进局项目(BBBNP)为例,BBBNP在接受投诉后,将启动问责程序。BBBNP首先将向相关网站公司发出调查函,在得到公司的回复函后,如果需要进一步的审查,BBBNP则需要在正式审查结束时,公开发布一项决定,详细说明审查的性质及其结果,并发布一份新闻简报,概述该决定。这项决定也将成为行业协会中全部公司的行为指导。如果公司拒绝配合BBBNP的调查与审查,可能会被提交相关的政府机构,由政府机构负责后续的工作。因此,电子广告联盟的监管更为及时,也不会抑制公司的创新,但存在的弊端是缺乏强制的执行能力。
电气电子工程师学会(Institute of Electrical and Electronics Engineers,简称IEEE)是目前全球最大的专业技术人员协会,在全球160多个国家拥有超过42万名会员。它的目标是促进电气和电子工程、电信、计算机工程等相关学科的教育和进步。IEEE在电信、计算机等领域的影响力巨大,其所通过的行业标准,是每一名会员必须遵守的规则。而IEEE所制定的规则,是由会员投票所表决的,会员可以对IEEE规则的制定提出自己的意见和建议。
有鉴于电子时代个人数据隐私问题的不断恶化,国际标准化组织(ISO)和国际电工委员会(IEC)在2011年颁布了《ISO/IEC29100:2011隐私框架》(ISO/IEC29100: 2011 Privacy framework),为个人可识别信息(PII)的保护提供了一个框架标准。具体而言,该标准指定了常用的隐私术语;界定了行动者及其在处理个人识别资料方面的角色;描述了保护隐私的考虑;为信息科技的隐私原则提供了参考资料。《ISO/IEC 29100:2011》适用于涉及指定、采购、架构、设计、开发、测试、维护、管理、操作信息和通信技术系统的自然人和组织。由于IEEE与ISO和IEC的紧密合作关系,这份标准在实践中得到了IEEE会员的广泛遵守。
后于2016年12月7日,IEEE开始着手制定一份独立的数据隐私进程标准(P7002-Data Privacy Process)。该标准定义了系统及软件工程中的数据需求,特别是使用员工、客户或其他外部用户个人数据的需求。该标准要求在产品的生命周期(从策略到开发),都要确保数据的安全与价值。通过特定的程序图表和检查列表,用户将能够对其特定的隐私实践进行符合性评估,也即隐私影响评估(Privacy impact assessments),用以确定哪些过程需要隐私控制和措施,并确认这些控制和措施是否到位。由于IEEE的重大影响力,该标准可以通过规范技术程序的设计,有效地保护个人的数据隐私。但截至笔者行文时,该标准仍然没有完全地被公开,依旧处于修改完善阶段。
可以说,IEEE的标准虽然缺乏强制执行力,但却在行业实践中担任着“软法”作用,程序员在编写程序时,势必需要遵循IEEE所设定的标准,因此,IEEE的P7002标准,仍是值得期待的个人数据保护的行业规则。
第三方认证为消费者提供了优先选择的公司范围,通过资源整合式分析与判断,第三方认证机构可以识别出市场中有效保护个人权利、增进社会福祉的公司机构,该公司机构通常成为个人的优先选择对象。以国际隐私专业人士协会(International Association of Privacy Professionals,简称IAPP)为例,该协会是一个非营利性、非倡导性的会员协会。它为隐私专业人士提供了一个论坛,从而分享最佳实践、追踪行业趋势、推动隐私管理议题、规范隐私专业人士的名称,并就信息隐私领域的职业机会提供教育指引。IAPP成立于2000年,前身为隐私官协会(Privacy Officers Association)。2002年,隐私官协会与公司隐私官协会(Association of Corporate Privacy Officers)合并,成立了国际隐私官协会(International Association of Privacy Officers)。该组织于2003年改名为国际隐私专业人士协会(International Association of Privacy Professionals),以反映一项更广泛的使命,即除了首席隐私官之外,还纳入了从事与隐私有关任务的公司人员。2012年,该组织的会员人数达到1万人,2018年,该组织的会员人数超过了4万人,而这期间会员人数激增的重要原因在于欧盟GDPR的出台。
国际隐私专业人士协会最为夺目的部分在于其所创建的国际隐私认证项目,其中信息隐私专业认证(CIPP)、信息隐私经理人认证(CIPM)和信息隐私技术专家认证(CIPT)已经获得美国国家标准机构(American National Standards Institute)承认。IAPP的认证也被称为验证信息隐私的专业黄金标准(the gold standard)。具体而言,IAPP的认证项目包括:
第一,信息隐私专业认证(Certified Information Privacy Professional,简称CIPP)。CIPP的关注点在于主体是否了解管辖区的法律规则和隐私标准(The WHAT Laws and Regulations)。如果主体通过了CIPP的考试认证,意味着主体已经对隐私和数据保护法律和实践拥有基本的了解,包括:管辖区法律规则及其执行模式;基本隐私概念及原则;处理和传输数据的法律要求。由于管辖区的不同,CIPP细分为CIPP/A(亚洲)、CIPP/C(加拿大)、CIPP/E(欧洲)、CIPP/US(美国)。
第二,信息隐私经理人认证(Certified Information Privacy Manager,简称CIPM)。CIPM关注的是主体在组织中如何通过各种途径管理隐私(The HOW Operations)。当主体获得CIPM认证后,这表明主体不仅知晓隐私规则,还了解如何使用它为主体所在的组织工作。质言之,当涉及隐私问题时,获得CIPM认证的人员是公司或组织日常操作的首选人员。CIPM需要通过考试认证,考试的内容包括但不限于:如何创造一个隐私保护的公司视角,如何组建一个隐私团队,如何发展和执行一个隐私项目框架以及如何与各方利益者沟通等等。
第三,信息隐私技术专家认证(Certified Information Privacy Technologist,简称CIPT)。2014年推出的CIPT的关注要点是主体是否知道管理隐私的技术要求(The HOW Technology)。CIPT的默认假设是,只有技术专业人士才能在IT产品和服务全阶段保障数据隐私。与CIPM一样,CIPT也需要考试认证,考试的内容包括但不限于:影响IT的关键隐私概念和实践,消费者的隐私期待和责任,如何将隐私融入IT产品和服务的早期阶段,如何建立数据收集和转移的隐私实践,如何在物联网中抢占隐私保护先机,如何将隐私因素纳入数据分类和云计算,以及人脸识别和监控等新兴技术中的隐私问题等等。2020年初,CIPT的考试内容中增加了“隐私工程”和“隐私设计的方法论”两个领域。
第四,隐私法律专家(Privacy Law Specialist,简称PLS)。2018年,IAPP还开展了隐私法律专家项目,该项目得到了美国律师协会(ABA)的承认。获得隐私法律专家的认证,意味着该律师成为隐私法领域的精英。获得PLS认证的前提条件是:(1)在美国至少一个州成为声誉良好的执业律师;(2)已经获得CIPP/US认证,和CIPM或CIPT认证;(3)通过IAPP的PLS伦理考试,或者取得最近的MPRE80分以上的成绩;(4)“持续和实质性”参与隐私法实践(至少占过去三年全职实践的25%);(5)在申请前的3年内,至少接受过36小时的隐私法教育;和(6)提供至少5份来自律师、客户或法官的同行推荐信。
第五,信息隐私专员认证(Fellow of Information Privacy,简称FIP)。FIP是专为取得CIPP资格,而且还获得CIPM或CIPT资格的人士设置的。申请人需证明自己至少有三年的工作经验,其中至少50%的工作内容围绕着信息隐私展开。申请该认证还需要三名业内同行的推荐信。通过FIP认证意味着,该主体已经展示了其对隐私法、隐私程序管理和基本数据保护实践的全面知识。
因此,获得IAPP认证的主体,意味着其在隐私保护的知识储备和基本能力方面优越于其他主体。消费者个人在进行选择时,可以优先选择具备IAPP认证的主体,或者是公司组成人员中获得IAPP认证人数更多的公司。由上可见,行业组织可以保持监管与创新的联系,行业集体行动可以改变人工智能囚徒困境中的激励机制,并将成为人工智能领域的主要监管方式。然而,行业监管仍需要其他各方的配合。分析表明,监管算法需要广泛的参与者、多层次的工具,并没有一劳永逸的方案(one-size-fits-all)。监管人工智能需要治理工具和不同参与者之间的相互作用,人工智能的行业监管仍需要国家监管的支持以及公众参与的辅助。
由于个人能力单薄的先天缺陷,个人难以提出内容翔实、逻辑紧密的立法建议或监管意见。而消费者组织、非营利组织弥补了个人的能力不足问题,通过集体力量反映出个人的监管意愿。尽管种类繁多的消费者组织、非营利组织的关注要点不尽相同,但绝大多数的组织均对技术发展秉持怀疑态度,并要求制造商提高权利保护基准,呼吁国家和行业进行及时有效地监管回应。
无论是国家监管还是行业规制,都需要聆听消费者个人的需求与建议,个人需要参与到权利保护的运作之中。算法素养的提升为个人参与提供了有效的知识支撑,然而单一个人的力量薄弱,凝聚个体力量的消费者组织的联合诉求更能逻辑清晰地反映出消费者的真实意愿,从而对抗权利的侵害行为。
2019年1月,包括电子隐私信息中心(EPIC)、电子民主中心(Center for Digital Democracy)在内的多家消费者组织发表了《就是现在:在美国建立一个全面保护隐私和数字权利的框架》报告(The Time is Now: A Framework for Comprehensive Privacy Protection and Digital Rights in the United States),要求联邦政府成立一个全新的联邦机构,负责数据隐私保护,同时为科技公司处理个人数据设置底线。具体诉求包括:第一,制定基准线式联邦立法;第二,履行公平信息实践原则;第三,建立一个数据保护机构,该机构还应审查高风险数据处理的社会、伦理和经济影响,并监督后续的影响评估;第四,确保强有力的执法;第五,开展算法监管,促进公平公正的数据实践;第六,禁止使用“要么接受要么放弃”(Take It or Leave It)的条款;第七,促进隐私保护的创新,联邦法律应该要求公司对隐私和安全采取创新的保护方法,尤其是通过设计保护隐私与安全;第八,限制政府查阅个人数据。
消费者组织的联合诉求虽然并不能直接转化为实践标准,但其提出的内容反映出目前消费者数据保护的迫切需求,是国家监管与行业规制的重要参考。2019年8月1日,电子隐私信息中心(EPIC)还就联邦贸易委员会对金融机构数据安全保障规则的更新提案,向联邦贸易委员会提出了意见,并得到了联邦贸易委员会的确认。电子隐私信息中心(EPIC)还曾于2014年公布了《学生隐私权利法案》意见稿,建议根据《消费者隐私权法案》(Consumer Privacy Bill of Rights),构建一个可强制执行的学生隐私和数据安全框架,具体涵盖了访问和修改原则、集中搜集原则、尊重情境原则、透明度和问责制等原则性制度构想。
与此同时,电子前沿基金会(EFF)一直在积极推动《电子邮件隐私法案》(Email Privacy Act)的出台。这一法案的直接推动案件是United States v. Warshak案,在该案中,第六巡回法庭要求政府在获得个人在线存储的邮件信息之前,必须获得搜查令(warrant)许可。因此,该法案的重要内容是,要求美国司法部和美国证券交易委员会(Securities and Exchange Commission,简称SEC)等相关部门获得搜查令后,方能访问个人180多天前的电子邮件、云存储中的数据和其他通讯数据。但截至2019年10月,该法案只在众议院得到通过,并未得到参议院的通过。电子前沿基金会(EFF)认为,众议院通过该法案是“用户隐私的胜利”(a win for user’s privacy),并敦促参议院在不削弱修正案的情况下批准该法案。尽管消费者诉讼的联合声明或是立法建议难以直接转化为社会规范,但是其所投射出的公众偏好,有助于及时弥合公私监管的个人鸿沟。
五、结语
人工智能与法律的相互影响同样是国内学界的关注焦点,数据保护已然成为全球层面的通识问题。各国的制度文化、社会背景差异虽大,但技术与权利的冲突问题仍然存在共性。一味痴迷美国式权利保护固然脱离本土而不可取,全盘否定美国式技术规制与权利保护的历史经验同样过于武断。在美国的既有经验中汲取营养,避免重蹈美国式覆辙,方是对待美国叙事的应然态度。隐私理论、设计理论的完善为制度更新提供智力支持,美国政府的审慎谦抑态度为技术发展提供宽松氛围,消费者主体的场景定位深挖传统权利保护方式,进而避免了权利保护的束之高阁。对于我国而言,选择性吸收其中的规制与保护经验,形成三方合作下事前、事后全程的权利保护,应是比较视野下的最优选择。
我国当前的个人数据保护主要依赖于网络安全法和《信息安全技术——个人信息安全规范》。2017年生效的网络安全法从国家宏观统筹出发,将个人数据的保护任务交由国务院电信主管部门、公安部门和其他有关机关执行,并明确了网络运营者的数据保护义务。《信息安全技术——个人信息安全规范》细化了数据控制者的数据保护义务,并于2019年再次公开征求意见,从而保证网络安全法具体规范的流畅落地。由此,我国形成了以国家规制为政策主导,公司责任为实践展开的数据保护态势,个人在其中扮演着微弱的监督执行角色。从元规制角度出发,公司的自我监管是技术规制与权利保护的首要途径,而其监管方式需要受到外部力量的引导与纠偏。我国国家力量的政策引导与规则设定一直追求与国际接轨,甚至成为外媒赞誉的遵循GDPR的非欧盟国家。
然而公众参与的缺乏始终是我国权利保护的切肤之痛。网络安全法更为关注个人的守法义务,对于公众参与的描述有失偏颇。《信息安全技术——个人信息安全规范》虽然支持了个人的访问权、更正权等相关的数据权利,但忽视了个人数据素养的提升。《信息安全技术——个人信息安全规范》的征求意见稿反映出规则制定的公众参与意识,但依旧遗忘了作为公众参与优先性条件的个人数据素养。因此,对于我国而言,选择性吸收美国的个人数据保护经验,多方式提升个人素养,协调行业自我监管与国家强力规制的互动关系,形成三方合作下事前、事后全程的权利保护,应是比较视野下的最优选择。
往期精彩回顾
刘涛|检察工作服务海南自贸港建设研究
张书凝|海上无人系统法律地位的认定
郭钺|反垄断法之法益的再检讨——以《平台经济领域的反垄指南》第17条为线索
康琳|APP用户个人信息安全问题研究——以6款相机类APP为研究对象
陈淇华|个人信息权与隐私权的关系——论个人信息包含说的科学性
刘旭峰|数据搜索与个人信息:规范表达与法律保护
上海市法学会官网
http://www.sls.org.cn