劳东燕:“人脸识别第一案”判决的法理分析
The following article is from 环球法律评论 Author 劳东燕
作者:劳东燕(清华大学法学院 教授)
原载:《环球法律评论》2022年第1期
内容提要:“人脸识别第一案”之所以备受瞩目,不只在于其涉及如何平衡个人信息保护与个人信息商业化运用之间的关系,更在于其涉及法律应当如何正当而合理地分配科技所带来的效益与风险问题。两审法院的判决认可信息主体的删除权,有值得肯定之处,但同时也有令人遗憾之处。两审法院的判决在价值取向上支持产业界,故而对现行法律做了有利于信息处理者的选择性解读。从社会效果而言,判决所传递的信息并不利于加强对个人信息的保护,既难以有效激励信息主体在自身信息权益受到侵害时积极进行维权,也无法对信息处理者的侵权与违约行为形成有力威慑。技术中立是个伪命题且具有误导性,因为技术不只处于科技系统之内,它也作用于现实社会并对之加以塑造。
关键词:生物识别信息 个人信息保护 技术中立 知情同意 删除权
郭兵诉杭州野生动物世界有限公司一案是全国第一起涉及人脸识别技术使用纠纷的民事案件,该案的基本案情是:2019年4月,郭兵向杭州野生动物世界有限公司(下称“野生动物世界”)购买双人年卡,支付年费1360元,同时留下自己与妻子姓名、身份证号码,并拍照和录入指纹。后野生动物世界决定将入园方式从指纹识别调整为人脸识别,并以店堂告示的形式公示通过相关文件。同年7月,野生动物世界向年卡持卡客户群发短信通知人脸激活事宜。其于10月停用指纹识别闸机,并以短信告知未注册人脸识别的用户无法正常入园。2019年10月28日,郭兵向杭州市富阳区人民法院提起诉讼,请求确认强制指纹和人脸识别无效,删除相关信息并承担有关赔偿费用。
一审判决判令野生动物世界赔偿原告合同利益损失678元及交通费360元,共计1038元,并删除原告办理指纹年卡时提交的包括照片在内的面部特征信息,同时驳回了郭兵的其他诉讼请求。原、被告均不服一审判决,分别向杭州市中级人民法院提起上诉。二审判决在维持一审判决中的前述两项内容的同时,判令野生动物世界删除原告办理指纹年卡时提交的指纹识别信息,并驳回郭兵的其他诉讼请求。原告之后进一步向浙江省高级人民法院申请再审,被裁定驳回。
本案中,两审判决明确肯定在信息处理者涉及违法或违约的情形时,信息主体可向信息处理者主张删除权,这算得上是个人信息保护司法发展历程中的一个亮点。在基本诉讼进程尘埃落定之际,本文对该案的判决进行反思与评析,在此基础上进而对技术中立性的命题展开检视与反思。
一、人脸识别第一案的法律意义
人脸识别技术在我国的全面推广不过几年时间,其间涉及的问题在法律上如何合理予以解决,并无相应的规范或先例可循。前述案件本质上涉及的是,如何协调个人生物信息的权益保障与个人生物信息的商业化运用之间的紧张关系的问题。从更为一般的意义来说,该案是在处理一个极具时代性的重要命题,即在网络与数字技术不断发展的背景下,在新型领域或事务所牵涉的各方主体在法律上应当如何正当而合理地分配科技所带来的效益与风险的问题。因此,本案自始就并非一起普通的民事案件,它之所以受到万众瞩目,根源也在于此。相应地,该案在法律层面自然是作为疑难案件而存在。
(一)司法如何发挥能动性
在现有法律明显落后于技术发展与社会环境变化的情况下,司法如何合理发挥能动性,利用处理疑难案件的契机,力所能及地为法律体系的演进做出贡献,无疑有其现实的必要性。毕竟,随着网络与数字技术对社会各领域的塑造与影响的渐次呈现,在立法开足马力仍显得捉襟见肘的时代,司法不得不承担起通过法律适用更新法律甚至是造法的任务。以知识产权领域为例,尽管受到一些批评,法官造法的现象事实上相当普遍。我国诸多法院在缺乏明确法律依据的情况下,曾先后利用法律原则条款在判决中确认商品装潢、不具备原创性的数据库、未注册商标、域名、未保密的技术成果受法律保护,同时法院还利用不正当竞争法和知识产权法的原则条款,扩充某些知识产权的权能,来为权利人提供超出成文法范围的保护。知识产权领域的司法能动现象更为普遍,与该领域更易受技术发展的影响有关,故其对外部社会环境的变动表现得更为敏感。
即便在受罪刑法定制约的刑法领域,能动司法也存在相当的空间。当前刑法中的功能主义解释论抑或实质解释论,本身便强调通过法解释赋予法规范以新的内涵,以有效回应社会发展中的需要。就此而言,前述解释论与能动司法之间存在诸多内在诉求上的一致性,在运作逻辑上也一脉相承,可谓是能动司法在刑法领域具体化的产物。这也是为什么在当前的刑法研究中,涉及法律适用争议的疑难案件日益受到关注。借助处理疑难案件的契机,法律规范无需启动立法修改便可获得重生的机会,先前理解被放弃,新的解读内容被注入到原有条文之中。由此,成文法固有的滞后性得到有效的缓解,法律体系得以形成一种内在的适应机制,确保其自身的演进与外部环境的变化相协调。在一个法律系统具有比较充分自主性的社会中,疑难案件并不是作为“麻烦”,而是作为法律系统发展与演化的“机会”而出现。这是因为,疑难案件往往有可能成为审视与反思现有法律规定之合理性的契机,在经受相应的检验之后,相关规定的含义得以重构或被重新塑造。
事实上,在法学方法论上经历从概念法学到利益法学的“哥白尼革命”,在法解释论上经受哲学诠释学的改造之后,法律适用过程被认为包括理解、解释与运用三个环节。法律适用过程实际上也是经由解释而创造性地发展法律的过程,而这正是法律系统内在适应性机制的重要组成部分。基于此,每个法律解释都有其时代性,因为解释始终都与该当法秩序的整体及其基础的评价准则密切相关;没有一个解释可以主张它是终局且可适用于任何时间的“绝对正确”的解释,它绝不可能是终局的解释,因为生活关系如此多样,根本不可能一览无余,再者,生活关系也一直在变化之中,规范适用者必须一再面对新问题。也正是由于适当地解释法律,内在地蕴含了创造性地补充与发展法律的因素,法律解释与法的续造之间根本无法做出清晰的界分。
(二)司法如何应对疑难案件
就本案而言,其在法律层面的“疑难”之处并不在于事实或证据,而在于涉及法的续造。相应地,若想真正有效处断该案,便需直面其间的“疑难”,在法律上给出明确的决断。
应当说,法院为确保案件的审判质量已经付出了很大的努力。一审判决不仅经过审判委员会的讨论,还就个人信息的删除权问题专门召开专家论证会。单看该案的判决文书,也能得出案件确实受到特别认真对待的结论。两审法院着眼于是否违约的问题,对其间涉及的争点做了条分缕析的说理,对当事人提出的诉讼主张逐条展开分析并表明法院的立场。然而,两审法院在形式上的慎重对待,只能表明其将该案定位于程序性的疑难案件,对该案真正需要解决的“疑难”,即如何正当而合理地分配科技所带来的效益与风险,却不约而同采取的是回避策略。这最终导致如下局面,即法院在如何适当解释现有法律与如何合理进行法的续造方面几乎毫无作为。
对疑难案件避之唯恐不及,在我国司法实践中是普遍现象。问题在于,对疑难案件采取“绕着走”的策略,会使现有法律失去重要的自我调整与改进的机会。让法律与法学理论的发展错失这样的宝贵机会,着实令人扼腕。当法院不是将疑难案件看作法律发展与演化的资源与机遇,而是看作避之唯恐不及的麻烦,法律系统的分出与教义学的发展空间都会非常有限;在这样一种心态下,跳脱法律系统本身为司法所设置的轨道与界限,法院按照某种“摆平理顺”的原则和方法论来处理案件,就变得在所难免。
由是之故,这样一起本来具有重大时代意义的案件,判决的内容却撑不起它的时代意义。这是一个标志性的案件,却未能产生标志性的判决。该案本身是因涉及人脸识别方面一般的法律问题而引发全民的关注,法院却只愿意将该案作为一个具体案件来处理,将解决其间的纠纷作为首要的诉求。也因此,两审法院尽量回避对该案所涉及的具有一般意义的法律问题做出回答,而选择只在违约与否的框架中来思考。不止如此,两审法院更进一步将纠纷定位为原被告之间的约定是否有效的问题,而拒绝承认野生动物世界启用人脸识别技术的通知与告示本身,可能构成格式合同中的无效变更条款,甚至进而肯定这种单方通知与告示对于其他年卡办理者的有效性。两审法院对案件的这种定位,注定与郭兵提起诉讼的本意相背离,也与公众对个人生物信息保护的期许相距甚远。面对这样一个烫手的案件,法院面临极大的社会压力,想要限缩其所具有的一般意义,以及由此表现出来的保守与谨慎,在现有的司法体制下可以理解,但这仍是让人遗憾的判决。个案是法治的细胞,法院原本可以往应然的方向更进一步,为个人信息的合理保护树立一个标杆,而不是在利益的天平上权衡一番之后仍然倒向产业界,强化现有社会秩序中信息处理者与信息主体之间的结构性不平等。将司法的功能定位为纠纷解决,导致法官使用高度个案化的法律技巧,喜欢综合考虑被裁判行为所涉及的种种人情与世故。而这样做的后果是,不仅法律系统的自主运作难以获得实现,法律也因自身的严重滞后性显得不公,从而难以在全社会发挥稳定规范性期待的功能。
二、案件判决的遗憾之处
虽然两审判决在结论上稍有不同,但二者无论是对事实与证据的认定,还是对争点问题的归纳,抑或是基本立场与说理思路,都是相同的,故可一并予以评论。
(一)案件纠纷的法律定位
两审法院看起来在相当程度上支持了原告的主张,但从实体法律条文的援引来看,双方对该案的法律定位有着重大差异。原告援引了《消费者权益保护法》与《网络安全法》相关条文,强调野生动物世界作为经营者与网络运营者,未能履行《消费者权益保护法》与《网络安全法》明文规定的相应义务。由此可见,原告并未将其与野生动物世界之间的争议理解为是平等主体之间的民事纠纷,也没有将双方的争议定位在单纯违约的层次上,故其不仅要求确认野生动物世界的格式合同中涉及强制指纹与人脸识别的内容违法无效,在删除义务之外还要求野生动物世界履行删除个人信息安全保障方面的义务。相反,两审法院尽管也援引了《消费者权益保护法》的相同条款,但首先援引的却是《民法总则》与《合同法》,且没有适用《网络安全法》的相关规定。这意味着,两审法院是将争议界定为平等主体之间的合同纠纷,所以只想就双方是否涉及违约的问题做出裁决,既不愿对格式合同中的相关条款是否无效做出确认,以免牵扯到本案之外的其他年卡使用者,也不愿对野生动物世界在是否履行个人信息安全保障义务等方面进行评论。两审法院对案件的此种定位,与作为被告的野生动物世界的界定完全相一致,后者也是局限在双方订立的服务合同的层面来展开相应答辩。也因此,判决本身有利于野生动物世界对年卡使用者继续推广应用人脸识别的入园方式。
法院对案件纠纷的定位面临的质疑在于,无论是从消费者与经营者的关系角度,还是从用户与网络运营者的关系角度,原被告都并非处于平等主体的地位,后者明显属于社会结构中强势的一方。对于强弱有别的两方主体,完全采取以平等主体为预设前提的民事合同来保护,势必产生偏向强者的效果。
(二)判决的六个遗憾之处
导致判决以这样的面貌出台,因素比较复杂。纵观本案判决的内容,在以下六个方面存在令人遗憾之处。
其一,未肯定生物识别信息之于信息主体的权利属性,而基本上是将之作为单纯的利益来对待;也因此,判决完全在违约的框架内来思考与定位相应的问题,而否定存在侵权的可能。实际上,如果对现行法律规定做融贯性的解读,完全可以得出信息主体对自身的生物识别信息享有的是一种“权利的”结论。《消费者权益保护法》于2013年修改后,在第14条中明确消费者“享有个人信息依法得到保护的权利”。《刑法》第253条之一规定的侵犯公民个人信息罪是放在分则第四章侵犯公民人身权利、民主权利罪中,表明该罪侵犯的就是公民的人身权利,而刑法理论上也倾向于认为该罪保护的是个体权利,尽管对权利指向的内容存在不同的解读。《民法典》第111条虽只规定“自然人的个人信息受法律保护”,没有明确个人信息属于权利,但个人信息是与隐私权放在同一专章规定的。对此,合理的解读理应是,既然与隐私权相并行,表明个人信息也属于一种权利,它与隐私权存在密切关联,同时具有超越隐私权的一面。结合《消费者权益保护法》与《刑法》的相关规定做融贯性的解读,也能得出相同的结论。一旦肯定信息主体对个人信息享有相应权利,则作为个人信息中具有高度敏感性的生物识别信息,自然更应作为信息主体的权利来对待。
就本案而言,如果承认现行法律体系肯定信息主体对个人信息的权利属性,则野生动物世界存在未经同意就提取人脸信息并作数据化处理的侵权事实。一审法院认识到了这一点,所以才在判决结论中要求被告删除原告提交的面部特征信息。二审法院也肯定,“野生动物世界虽自述其并未将收集的照片激活处理为人脸识别信息,但其欲利用收集的照片扩大信息处理范围,超出事前收集目的,违反了正当性原则。同时,鉴于收集照片与人脸识别利用的特定关系,野生动物世界又以短信通知等方式要求郭兵激活人脸识别,表明其存在侵害郭兵面部特征信息之人格利益的可能与危险。”既然是未经同意就提取用户的人脸数据,而非单纯留取照片,则野生动物世界不仅涉及违约,还存在侵权的问题。按判决的内在逻辑,本来应当在认定违约的同时,进一步认定野生动物世界存在侵犯用户个人信息权利的事实,两审判决却均只承认违约事实,而否定存在侵权的问题。
其二,对法律上的知情同意要求做单纯事实性的理解,实质上架空了信息主体的同意权利,进而在相当程度上消解了同意机制对信息主体的微薄保护。本案两审法院均未支持确认杭州动物世界告示和通知中强制进行指纹和人脸识别的内容违法无效的主张。就指纹的收集而言,两审法院均认为,野生动物世界的店堂告示以醒目的文字告知购卡人需提供包括指纹在内的个人信息,即已尽到合理提示义务,而原告自愿办理年卡并配合提供指纹信息,之后多次以指纹方式入园,表明已征得原告的有效同意。就人脸信息的收集来说,两审法院都将相关的店堂告示与短信通知单纯理解为约定条款变更,并以原告未接受从而构成单方变更为由,肯定野生动物世界需要承担违约责任;同时,进一步以有关人脸识别的店堂告示未成为原告与野生动物世界之间的合同条款,原告对该告示不具有法律上的直接利害关系为由,否定确认涉人脸识别的短信通知和店堂告示内容无效的主张。
问题在于,未做任何风险提示的店堂告示与短信通知能否认定为已履行合理的告知义务?同时,年卡用户看起来“自愿”的配合,是否足以构成法律上有效的知情同意?根据《网络安全法》第41条的规定,网络运营者收集、使用个人信息,不仅应当遵循合法、正当、必要的原则,而且应当公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。2017版《信息安全技术个人信息安全规范》(GB/T 35273-2017)(下称“《安全规范》”)第5.3条有关授权同意的条款明确规定,收集个人信息前,应向个人信息主体明确告知所提供产品或服务的不同业务功能分别收集的个人信息类型,以及收集、使用个人信息的规则(例如收集和使用个人信息的目的、收集方式和频率、存放地域、存储期限、自身的数据安全能力、对外共享、转让、公开披露的有关情况等),并获得个人信息主体的授权同意。同时,《安全规范》第5.5条进一步规定,在收集个人敏感信息时,应确保信息主体的明示同意是其在完全知情的基础上自愿给出的、具体的、清晰明确的愿望表示。前述规定虽只是推荐性标准,但因有《网络安全法》第41条规定在前,显然应理解为是对第41条规定的具体化。两相对照,野生动物世界的相关告示与短信中既未涉及风险方面的提示,告知的内容与范围也未达到法定要求。在此种情况下,无论是对收集与使用指纹的“同意”,还是年卡持有者应要求前来激活人脸识别的使用,由于事先并未得到充分的告知,年卡持有者或办理者事实上的接受与配合,自然也难以成立法律上的有效同意。
两审法院均以可选择购买单次入园门票为由,认定原告选择权并未受到侵害。然而,野生动物世界提供的两种选择并不具有相当性:单次入园门票为220元,年卡用户一年内无限次入园的票价为1380元。其间的悬殊显然不应理解为年卡用户以提供自身的生物识别信息为代价获得额外的收益,而应当理解为年卡具有人身属性故需额外进行身份验证。基于此,只要是可以证明本人身份的方式,野生动物世界原则上均应予以认可。相应地,年卡用户作为消费者的选择权有必要理解为,野生动物世界为年卡用户提供其他能够证明系年卡用户本人的身份验证与入园方式。将年卡与生物识别信息的验证方式捆绑使用,在限制消费者权利的同时也无端加重其责任,年卡用户会因此陷于生物识别信息被泄露或滥用的风险之中,而让其冒这样的风险绝非必要。
归结而言,两审法院将野生动物世界未进行充分告知的情形视为已履行合理提示义务,将年卡用户在未充分知情且缺乏其他合理选择的前提下做出的事实性同意认定为法律上的有效同意,显然是对知情同意规定的扭曲性理解。照此种理解来适用现行法律,不仅信息主体的同意权利在实质上被架空,而且同意机制对信息主体所提供的微薄保护也基本上被消解了。
其三,名义上承认信息主体在涉及违约或违法的情形可主张删除权,但对删除权的实现方式不提供任何保障,是否删除与如何删除等完全由信息处理者自主决定,以致删除权实际上仅仅作为纸面权利而存在。在个人信息处理者存在违约或违法的情形时,信息主体可向其主张删除权,这一点在《网络安全法》第43条与《民法典》第1037条第2款均有规定。2020年10月公布的《个人信息保护法(草案)》一审稿第47条并未将删除权限定于违法或违约的情形,而是扩张至处理目的已实现、信息处理者停止提供产品或者服务与个人撤回同意等情形;之后的二审稿与正式通过的《个人信息保护法》,在维持原规定的基础上增设“为实现处理目的不再必要”的情形。不难发现,在删除权的问题上,我国立法的基本立场与倾向非常明确,强调加强保障而非降低或弱化现有的保护。如果承认信息主体享有此项权利,且该权利属于维护个人信息自主性不可或缺的实质性权利,则司法理应采取必要举措确保其得以实现。就此而言,本案原告主张在第三方见证之下删除其个人信息的主张有其合理性,第三方见证是确保删除权得以实现的必要之举。两审法院却置之不理,这使得其判决对删除权的承认犹如纸上画饼。不为删除权的实现方式提供基本的保障,信息主体的此项权利在实质上就会被架空,更难以对信息处理者构成有效的制约。
其四,对合法、正当、必要的原则做过于宽泛的解读,将使该原则对信息处理者的制约完全化为泡影。一审法院简单以使用指纹识别、人脸识别等生物识别技术,可达到甄别年卡用户身份、提高年卡用户入园效率的目的为由,肯定野生动物世界收集指纹与人脸信息的行为符合现行法律中的合法、正当、必要原则。二审法院则以年卡具有特定的人身属性,而生物识别技术具有准确度高、使用便捷等客观优势,同样对此予以肯定。研读两审法院的判决,会发现两份判决对何谓合法、正当、必要并未做内容上的界定,而主要将说理的重心放在经用户同意没有侵害自决权之上。
抛开未进行充分告知能否成立有效同意的问题不论,合法、正当、必要原则的内容若是主要依赖同意的获得,则该原则与同意要件之间就成为同位关系或从属关系。但事实上,无论是《网络安全法》第41条还是《民法典》第1035条,都是将合法、正当、必要与征得信息主体的知情同意相并列。《个人信息保护法》将相应内容规定在第5条中,从条文所处位置及其与上下条文的关系来看,合法、正当、必要原则乃是作为处理个人信息所需遵循的首要原则而存在,知情同意则只是充当具体的处理规则。这意味着,合法、正当、必要的原则具有独立于知情同意规则的内容,且二者的法律地位完全不同。人为拔高同意机制的重要性并不可取,也完全缺乏相应的法律依据。征得同意只是考量合法与否的因素之一,并非全部内容,更遑论作为正当性与必要性评估中的相应内容。
对合法、正当、必要原则的合理界定应分别指向个人信息处理的形式合法性、目的正当性和手段必要性。对其中的正当原则与必要原则,应认为其具有独立于合法原则的意义,而不应将三者理解为是同义反复的关系。如论者所言,正当、必要原则有助于弥补日益流于形式的告知同意机制的缺陷,可以有效规范告知同意机制的例外情形,也有利于破解个人信息权利化的困境。正当原则属于目的正当性评价,要求个人信息处理目的应特定、明确和合理;必要原则是对信息处理手段的规范性要求,主要包括禁止过度损害和禁止保障不足两大方面。“正当、必要原则”是个人信息处理最为核心的实体原则,分别对个人信息处理的目的与手段进行规范,是比例原则的体现。
不可否认,对于合法、正当、必要原则的内容如何理解,法学理论与司法实务迄今尚未完全达成共识,但是,涉及个人信息处理的活动,对于何谓正当可能并无定论,但何谓必要却具有基本共识。所谓的必要,也称最小必要性原则,根据2017年版与2020年版《安全规范》的界定,是对个人信息控制者或处理者提出的义务,要求收集的个人信息的类型应与实现产品或服务的业务功能有直接关联。直接关联是指没有上述个人信息的参与,产品或服务的功能无法实现。野生动物世界所提供的年卡服务旨在确保年卡用户本人享有有效期内无限次的入园游览,这样的服务显然不是必须提取指纹或人脸信息才能实现,使用有效身份证件进行人工核对完全可以实现相应的功能。同时,单是识别准确率与入园效率的提升,不足以证成野生动物世界使用人脸识别技术的必要性,因为效率方面的些微好处与因采集人脸信息而伴随的泄露滥用等风险相比完全不合比例。如此宽泛地理解必要性原则的内容,将会使任何使用人脸识别的场合都能轻易通过必要性原则的审查。如果法律所规定的正当、合法、必要三原则如此轻易就能通过审查,将不再有实际存在的意义。
其五,将生物识别信息与一般个人信息等同对待,未充分注意收集、使用人脸信息所可能带来的特殊风险(尤其是社会性风险),因而也没有采取特殊的保护标准与方式。人脸识别之所以受到广泛的关注,是因为推广使用这项技术会带来巨大的社会性风险,包括成为“透明人”的风险、信息泄露与滥用的风险、个体被操纵的风险、被歧视使用的风险、难以有效救济的风险以及社会成为“全景敞视监狱”的风险,且技术本身根本无法解决它所带来的风险,收益与风险完全不成比例。
二审法院肯定了对生物识别信息进行保护的重要性,但实在看不出其所采取的保护标准是考虑了生物识别信息的特殊性。两审法院的表面宣称与实际的判决内容无疑形成尖锐的对立,让人不仅怀疑其是否审慎地做过利益衡量,而且怀疑其是否真的意识到生物识别信息的特殊之处。具体而言,首先,两审法院将对生物识别信息的保护完全建立在同意机制上,且对同意的要求设置的是极低的门槛。其次,两审法院对删除权的实现方式不予保障,使得个人信息主体对生物识别信息行使删除权的主张很难得到落实。再次,两审法院对合法、正当、必要原则的理解如此之宽泛,以致依靠同意的获得与识别效率的提升便足成通过该原则的审查。最后,两审法院在是否侵犯消费者的选择权问题上,也采取的是极低的标准,只要求作为信息处理者的经营者提供任何其他的选择即可,而不论所提供的其他选择是否具有相当性。两审法院为个人的生物识别信息提供如此稀薄的法律保护,不免让人疑惑,其所宣称的“更应谨慎处理和严格保护”的立场究竟体现在什么地方?难道不应该在判决中明确论证,在前述相应问题上,如何根据人脸信息的特殊性而设置更为严格的保护标准吗?
其六,在如何确保生物识别信息安全问题上存在义务分配判断方面的误区,认为只要信息主体不能举证表明信息处理者在保管与使用方面存在不当,便可推定后者已采取合理措施保障个人信息的安全。两审判决均未将采取必要措施来确保个人信息安全的举证责任放在野生动物世界一方,而是要求被采集信息的一方对此进行证明;由于后者未能证明,便推定野生动物世界在保管与使用生物识别信息方面没有任何不当。然而,无论是根据《网络安全法》还是《安全规范》,抑或是判决作出之前发布的《个人信息保护法(草案)》的相关规定,信息处理者都有采取必要措施确保个人信息的安全,并进行事前的风险评估的义务。即便抛开《个人信息保护法》的规定,只看当时的法律规定与相关规范,也能得出相同的结论。据此,就本案而言,野生动物世界作为信息处理者,有义务证明自己在信息收集、保管与使用等方面已采取合规措施,两审法院将本应由野生动物世界承担的合规方面的举证责任,转嫁给作为信息主体的用户来承担,显然在义务分配的问题上陷入了认识误区。
三、案件判决的预期效果
就本案两审判决而言,前述六个方面的遗憾之处,前三方面指向信息主体相关权利的理解,后三方面则涉及信息处理者合规义务的界定。两审法院在信息主体的权利问题上倾向于做从严的理解,尽量淡化相关权利对于信息处理者的制约;在信息处理者的合规义务问题上,则采取偏于宽松的立场,想方设法降低其应尽的合规义务。两相对照,两审法院虽然声称要加强对个人生物信息的保护,以平衡个人信息保护与产业发展之间的关系,但终究还是倒向了作为信息处理者的经营者,倒向了产业界。
(一)社会效果预测与评估
在信息社会发生结构异化的情况下,企业、政府与普通公民的三方关系中,普通公民原本就处于绝对的弱势地位。正如学者在研究中发现的,较之企业、政府和特定人群,普通公民的权利,特别是言论自由、人格尊严、获得物质帮助等基本权利受到了严重侵害,这样的严重权利侵害由于从未在线下社会的类似情境中出现,因此往往溢出现行法,给企业留下了法律规避的空间。就科技发展所带来的效益与风险的分配而言,在法律未及介入的情况下,本身就易于形成有利于强者的安排格局。观察现实的社会也能发现,作为信息处理者的企业,是如何一方面努力地让自身的利益最大化,另一方面又设法尽可能少地承担风险。直面信息与数据科技的迅猛发展,不可否认,当前的法律处于严重滞后的状态。然而,裁判结论的不尽人意,能否全盘推卸到现行法律的不完善之上,是值得怀疑的。对于涉及新技术使用的标志性案件,裁判者应该去努力探索如何分配效益与风险才算合理。但是,不少司法裁判通过进一步弱化现有法律对个人信息的稀薄保护,义无反顾地站在了信息社会中本来就是强者的信息处理者一方。一言以蔽之,在效益与风险分配欠缺基本公平的新兴领域,司法的角色不是顶着为产业发展与数字经济保驾护航的旗帜加持既有的强者,而应当在公平而合理地分配效益与风险的问题上发挥自身的调节功能,尤其是通过疑难个案的法律适用而为推进制度变革提供有益的助力。毕竟,我们不可能一直“用19世纪的制度与20世纪的思维来理解与治理21世纪的技术”。
司法的诉讼机制不同于其他非诉讼机制之处就在于:司法裁判虽然也解决具体的纠纷,但更致力于对纠纷中所涉及的行为进行合法性的评价,确切地说,是通过对合法性进行评价的方式来解决纠纷。法律系统恰恰由于其具有对权利的合法性进行评价的功能,因此才获得纠纷解决的功能;因此,法律系统这种法/不法的界定功能相对于纠纷解决的功能而言更加本源,它是法律系统内在的特性。可以说,也正是基于此,个案(尤其是标志性的个案)的裁判必然具有向一般人传递行为规范信息的功能。
两审法院不约而同地倚重同意机制来保护公民个人的生物识别信息,并对知情同意作低标准的要求,同时,名义上肯定删除权却对删除权的行使不给予基本的保障,以便让信息处理者轻松越过或是绕过。这样来理解与适用相关法律,实际上是将处理个人信息的外部风险主要让信息主体来承担,而将主要的收益分配给信息处理者及其合作伙伴所享有。这意味着,本案的裁判不仅未能扭转现行风险分配格局中的不公平不合理之处,反而通过在法律层面给予支持而为这样的分配格局提供了规范上的合法性。这样的裁判无疑并不符合法律发展的基本走向。尽管在判决做出之前,我国有关个人信息的法律框架在整体上尚未形成,但已然可以洞察到相应的发展趋势。那就是,一方面通过给信息主体赋权,确实保障其对处理环节的控制权能,另一方面通过强化信息处理者在收集、保管与使用等处理环节的合规义务,来努力平衡个人信息保护与数据流通共享之间的紧张关系。在《个人信息保护法》已经生效,同时最高人民法院出台了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》的背景下,本案的两审判决在知情权、删除权与信息处理者的安全保障义务等问题的理解上,都存在明显的相抵触之处。
可以预期,本案的判决从社会效果而言,不太可能产生加强个人信息保护的作用。它不仅难以有效激励潜在的信息主体在自身信息权益受到侵害时积极进行维权,也无法对信息处理者在处理环节中的侵权与违约行为形成有力威慑。郭兵案的判决向社会传递的分明是这样的信息:一方面,作为信息主体,在自身的信息权益遭受侵害时,理性的选择是退让隐忍,因为通过诉讼所能获得的收益与所需投入的时间财力成本完全不成正比。另一方面,作为信息处理者,聪明的选择肯定不是老实守法地履行合规义务,而是可以继续未经同意或超出约定范围处理个人信息;毕竟,信息主体中极少会有“刺头”决定走诉讼途径,即便偶尔有人提起诉讼并打赢官司,也不过是将之前所收集的个人信息予以删除了事,至多再根据填平原则给予一定的补偿。至此,郭兵案判决的社会效果如何已是一目了然。寄希望于该案判决成为个人信息保护领域的里程碑,注定只是人们的一厢情愿。
(二)三个值得深思的问题
在司法实务中,类似的案件究竟应当如何裁判,有三个特别值得深思的问题:一是涉及易于引发社会风险的新技术的案件,法官如何进行利益衡量才算合理,是否可以不考虑现实与预期中的社会风险,而只就当事双方所代表的冲突利益作简单比较而得出?二是在新型案件中,法官做裁判时是否应当努力去探索相应领域法律发展的基本走向,并设法使自己所做的裁判契合这样的走向?三是对新型案件的处理,如何展开后果考量才能使裁判真正实现法律效果与社会效果的统一,从而切实发挥超越个案的示范意义?
首先,在如何进行利益衡量的问题上,只是比较当事双方的利益显然过于简单,忽视了利益具有多元性与层次性的事实。在民商事案件中,利益的层次结构要求法官在判案过程中遵循这样一种思维过程,即以当事人的具体利益为起点,在社会公共利益的基础上,联系群体利益和制度利益,特别是对制度利益进行综合衡量后,得出对当事人利益是否需要加以保护的结论。从判决理由来看,两审法院并未认真考虑制度利益与公共利益层面的利益类型,也没有考量因企业随意收集与处理个人生物信息所可能引发的各类社会性风险,故而轻易就让企业所代表的产业性利益压过用户的个人信息权益。这明显属于对利益的层次结构认识不当,可归类为“因缺少对利益结构的整体衡量而导致的滥用”;同时,将用户涉及高度敏感信息的重要权利直接化约为可随意予以衡量的利益的做法也有值得斟酌的余地。利益衡量体现的是社会功利主义的立场,并非任何利益都具有可算计性,随意将个人的重要权利相对化,会与宪法层面的基础利益相冲突。
其次,就如何使个案的裁判契合法律发展方向的问题而言,司法过于保守地维持传统立场,不仅会使现有的社会状况趋于恶化,也严重损害自身的形象与公信力。在法律发展的方向并不明朗之际,司法持保守立场不越雷池一步,本身无可厚非。然而,在个人信息保护领域,近些年来法律的发展,总体上都是在加强对个体的权益保护。尤其是在人脸识别问题上,全社会乃至全世界都对这项技术所蕴含的巨大社会风险表示关注与担忧,再加上《个人信息保护法(草案)》恰好在判决做出之前发布,可以说,法律发展的应然方向是明确的,也是比较容易做出判断的。在这种情况下,司法继续执意选择维持原有立场,不考虑公共利益,不仅导致司法在公平而合理地分配技术革命所带来的效益与风险的问题上毫无作为,也进一步加剧了信息社会中各方主体之间的结构性不平等。利益衡量的最终目的在于完善法律,使法律更契合社会、伦理、经济的发展与变迁。社会公共利益对法律制度发展具有重要的引领作用,它就像一座灯塔引领法律制度的发展方向;社会公共利益是法律制度发展的最强动力,牵引着法律制度沿着符合社会公共利益的道路向前演进。只考虑个案中双方当事人的利益,而不考虑重要的公共利益,这种狭隘的利益衡量往往使法律的发展痛失良好的契机。
最后,对于个案处理中如何展开后果考量的问题,司法机关如果仅局限于个案的纠纷处理,必然导致裁判结论在法律效果与社会效果上的双重丧失。所谓的后果考量,就是采取动态的前瞻性分析方法,考虑案件的裁决结论对将来会产生哪些效应,其中主要考察行为激励的效果。方法很简单:假设其中一方胜诉,想象当事的各方与社会中潜在的利害关系方,当获知法院的此种裁决结论后,将会做出什么样的反应,会实施怎样的行为。倘若预期的后果并不可欲,则法院需要重新考虑裁决结论的合理性并做出相应调整。这样的方法论,是基于合目的性的要求,与当前刑法与民法领域倡导的功能主义进路一脉相承。在法律适用过程中增加后果考量的环节,意味着法官在做出裁判时需要超越个案纠纷解决的层面,认真考虑如何为将来创制适当规则的问题。
四、技术中立性命题的检视
本案在公共舆论中备受关注,乃是缘于原告面临的困扰并不单纯是私人性的,不仅其他众多个人也面临相同的困扰,而且这样的困扰本身源自科技对社会的塑造。“个体若想理解自己的体验,估测自己的命运,就必须将自己定位到所处的时代;他要想知晓自己的生活机会,就必须清楚所有与自己境遇相同的个体的生活机会。”这意味着,需要将郭兵个人的困扰还原到当前的社会语境中,只有这样才能厘清其困扰的社会根源。鉴于人脸识别技术经常被人们以技术中立的理由来进行辩护,在此有必要对技术中立性的命题进行认真的检视。尤其是,正是技术中立观念的广泛流传,导致技术的开发环节完全被置于公共关注的视野外,也使得对技术的起初使用缺乏必要的规制;而一旦相应技术获得推广并引发巨大社会风险之后,从社会治理的角度来看,往往已然丧失最佳的干预时机。
(一)技术在社会中的角色
人们经常喜欢用菜刀来比喻技术在社会中的角色,认为技术为善还是为恶取决于操纵于何人之手,所以技术本身具有中立性。然而,这样的比喻无疑忽视了技术的本质,实际上,技术根本不是物理上的某个实体,而是作为一个目的性系统存在,会有机地向外部生长,表现出类似生物的特性。技术是有生命的,具有自组织性,即可以通过某些简单规则自行聚集起来,同时它是自我创生的。技术的自我生长与进化的特性,导致其在服务于人类的同时,不可能只是充当工具的角色。与此同时,技术与社会之间是相互作用的关系,它作用于社会,同时也被社会所作用。因此,技术的开发与使用会在社会系统中引发连锁性的反应,深刻地塑造社会的各个领域。
技术的本质就是对自然的编码,它是一种对现象的捕捉,并驾驶这些现象为人类的目的服务。既然是作为主体的目的性活动,技术从开发之初就不可能价值中立,而必定体现与贯彻开发方的价值观,且不可避免地会偏向于优先考虑开发方的利益。声称技术没有价值取向的观点,显然忽略了一个要点,即技术与社会是相互塑造的;同时,任何技术在开发之时都包含了一定的价值观、目标和妥协,一般情况下,经济因素决定了哪些技术值得开放,也决定了如何设计和实施这些技术。一旦技术运用于社会,势必会牵涉到其他的社会主体。由于没有参与对技术的开发,其他主体虽然作为利害关系方,却并无机会表达自己的利益诉求,更没有机会让自身的价值观与目标融入其中。这使得看起来中立的技术开发与使用环节,在价值观的贯彻与体现上可能流于偏颇,也极易形成有利于开发方的利益安排格局,为社会中结构性不平等的生成埋下伏笔。在当下,科技企业与政府在事实上成为最大的受益主体,凭借技术的力量获得前所未有的支配力量,与其作为技术开发方与委托方的角色存在莫大关联。在人脸识别技术的问题上也是如此。科技企业与政府作为受益最大的两方,前者在商业利益上获益颇丰,后者则得以大大提升对社会的控制能力与管理效率。这项技术在近些年的狂飙突进,正是端赖于资本与权力的合力推动。也因此,人脸识别技术在开发之初,就没有将公众的利益充分地考虑进去,尽管它涉及几乎每个成员的重要切身权益。可见,技术中立的说法不仅是误导性的,而且是不负责的。相比而言,“所有的技术都具有政治性”的断言,更为合理也更符合对现实的观察。所谓的政治性,不是说技术代表了政府,采取明确的党派立场,而是说它包含一整套假设、价值观和原则,服务于民众和社会制度,反过来又能够(并确实)影响社会权力、结构和地位,毕竟,技术与我们的认知方式、决策方式、看待自我和他人的方式密切相关;它关系到我们的身份和世界观,也影响着我们的未来格局。
(二)技术与社会治理之间
归根结底,技术中立论者将技术视为人类工具的前提并不成立。技术的自创生性,使得技术的发展与应用完全可能走向失控,而反过来支配人类的命运。在利用技术的能力方面呈指数级增长的同时,人类在政治秩序构建与社会治理方面的能力并未获得同步的提升,二者之间的鸿沟有不断扩大的趋势。这导致人类自身难以对技术发展带来的所有后果实现有效的控制。失控的风险无处不在且日益显现,正是这一点引发了广泛的不安。本应以人为本并赋能于人的技术,在现实中却日益地沦为压制与禁锢人类(至少是一部分人类)的手段。让人们担忧的是,技术不仅没有带来预期中人类的自由与解放,反而可能成为构筑理性化牢笼的钢筋水泥。这样的担忧并非杯弓蛇影。正如赫拉利(Yuval Noah Harari)所预测的,“随着权威从人类转向算法,世界可能不再是一个自主的、人们努力做出正确选择的剧场。相反,我们可能认为整个宇宙就是一个数据流,每个有机体不过是一套生化算法。至于人类在这个宇宙中的任务,则是打造一套无所不包的数据处理系统,然后与系统融为一体。其实,我们现在就已经像一个又一个小小的芯片,装在一个大到没有人真正理解的数据处理系统之中”。不止如此,现实社会中的强势群体,可能会在既有基础上借助技术的力量进行更为有力的支配与压制,从而进一步恶化其他群体及其成员的处境。也正是基于此,技术的发展在伦理层面与道德层面始终面临诸多的质疑,因为它既可能不利于共同体对美好生活的伦理追求,也可能严重有损以人为本的道德价值。
技术中立是个伪命题,因为技术不只处于科技系统之内,它也作用于现实社会并对之加以塑造。以人脸识别技术引发的社会问题为例,充其量技术措施只能在其中有所助益,而难以完全或有效地予以解决。只要技术的作用效果超出科技系统的范围,势必要经受法律系统与伦理系统的评估。人脸识别技术之所以引发全社会乃至全世界的关注与隐忧,正是因为其所带来的公共风险远远溢出科技系统。从法律系统的角度来看,技术会有合法与非法之分;立足于伦理系统,技术会有好坏或善恶之分。就法律层面而言,一方面,如果所开发的技术本身主要用于违法犯罪,则开发使用行为可能会被追究相应的法律责任。比如,我国《刑法》第285条第3款与第286条第3款,明确将提供专门用于侵入、非法控制计算机信息系统的程序、工具的行为与故意制作、传播计算机病毒等破坏性程序的行为规定为犯罪。另一方面,如果一项技术既可用于合法途径也可用于违法犯罪,则行为人在对他人实施违法犯罪具备主观明知或帮助故意的情况下,看起来中立的技术开发使用行为就可能变得非法。我国《刑法》第287条之二明确将明知他人利用信息网络犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持的行为,规定为帮助信息网络犯罪活动罪的行为类型。除此之外,刑法中的共同犯罪理论使得提供技术帮助的行为,可能构成分则中诸多犯罪的共犯甚至是正犯。
当然,一概地将所有技术都当作洪水猛兽并不可取,不同技术的双刃剑效应大相径庭,法律上的对待也会有所不同。根据可能引发的风险类型、大小与程度以及是否可逆等因素,法律对新技术的开发与使用呈现三种态度。一是完全为法律所禁止。这类技术的特性在于,所带来的风险无法估量且难以逆转,在道德与伦理层面受到高度一致的批判,典型的例子是基因编辑技术。在我国刑法规定了非法植入基因编辑、克隆胚胎罪后,将基因编辑、克隆的人类胚胎植入人体或者动物内的行为与将基因编辑、克隆的动物胚胎植入人体内的行为,已被全面禁止。二是在原则上禁止的同时例外地允许使用。此类技术的特性是,虽然能带来较大的效益但风险难以预测,其中蕴含的政治性与社会性风险,易于对现代社会所珍视的重要价值(如自由、人权与民主等)构成严重威胁,在道德与伦理层面因此面临重大质疑。相应地,在珍视这些价值的社会中,可能会对此类技术采取原则禁止的态度。人脸识别技术属于此类技术的范畴。欧盟的《一般数据保护条例》(General Data Protection Regulation, GDPR)对于包括人脸数据在内的生物识别信息采取的便是原则禁止例外允许的立场。三是允许在合规的情况下推广使用。该类技术的特性是,总体上收益大于风险,且预期的风险较为可控,也不会让某一或某些群体不公平地处于不利的地位。自动驾驶便是这样的技术,目前各国法律对相关研发与推广均持肯定的态度。
五、结语
在人脸识别的问题上,若要从根本上解决信息保护的困扰,就必须借助包括法律在内的制度,对现有的社会结构施加反作用力,推动后者完成根本性转变。从推进制度构建的角度来看,有必要先解决价值取向的问题,即如何将社会价值观纳入人脸识别技术的开发与使用环节,以扭转原有价值观与相应利益安排的偏颇之处。人脸识别技术遭遇强烈反对的事实,表明该项技术在开发过程中融入技术的价值观与社会价值观存在冲突。为实现负责任地塑造技术的发展,在价值观层面有必要做出三个方面的调整。
第一,人脸数据的保护牵涉多方主体,包括数据的生产者(即自然人)、控制者、使用者、监管者与一般的公众等,应当尽可能地让各利益相关方参与其中,主动考虑其利益所在与相应诉求。无论是企业还是政府,不能再把无节制地追求利益或经济增长当作根本目标,而要考虑服务于所有的利益相关者,考虑如何与利益相关者一起对技术发展施加充分影响。世界面临的宏观风险和问题越多,就越有必要实行利益相关者理念以及环境、社会和治理策略。
第二,对技术发展所带来的效益与风险进行公平而合理的分配。就效益分配而言,需要认真审视现有制度的倾向,是否显性或隐性地使得技术发展的利润与收益集中流向某一或某些主体,导致财富与机会变得过于集中。从风险分配来说,必须防止处于强势地位的主体推卸与转嫁风险。在各方主体之间分配风险时,应当首先考虑风险由何者创设或参与创设,并确保各方主体的获益大小与风险承担之间的合比例性,再考虑风险预防能力的高低与特定分配方式的预期激励或预防效果。
第三,技术的根本目的在于服务人类的福祉,使得个人追求自由而幸福的生活成为可能。基于此,技术应当以人为本,赋能于人,不应成为支配一部分成员的工具,更不能任由技术来决定人类的未来。这意味着,对技术的发展不能听之任之,而应当合理加以引导塑造。作为人类,我们需要挑战,需要意义,需要目的,需要和自然融为一体;如果技术将我们与自然分离,它就带给了我们某种类型的死亡,但是,如果技术加强了我们和自然的联系,它就肯定了生活,因而也就肯定了我们的人性。
就当前的状况而言,法律介入对人脸识别技术的规制势在必行,也已成为基本共识。由此,需要进一步思考,如何将价值观层面的前述考虑贯彻与融入到制度构建之中。
来源:环球法律评论