。作者:洪延青
中国人民大学法学院 博士后研究人员
北京理工大学法学院 教授
来源:《法律科学》2024年第1期
目次
一、问题的提出
二、人脸识别技术应用产生的新型风险与适用个人信息保护法框架的缺陷
三、人脸识别技术应用的分层治理路径
四、人脸识别技术应用分层治理的优化进路
五、结语
摘要:随着技术发展和模式演进,人脸识别技术应用具备了实现“全场景监控”和“全维度监控”的能力,因此在为人们生产生活带来红利的同时,在保护人格尊严、个人自主、信息安全以及财产安全等方面也存在潜在风险,对个人基本权利和社会公共利益造成一定程度的威胁。基于此,只有从应用层、系统层、技术层、信息层四个方面进行类别化、体系化、明确化的路径分析,才能真正廓清人脸识别技术在不同层面隐藏的风险或危害,并有针对性地提出控制措施。
关键词:人脸识别;全场景监控;全维度监控;分层治理
一、问题的提出
对人脸识别技术的应用可能带来的风险,目前多有讨论。既有研究首先指出:人脸识别技术在身份验证环节中可能产生误差和被破解,以及所收集和产生的人脸信息可能遭泄露。第二个方面的风险在于侵害个人信息权益或隐私,例如人脸识别技术被用于“拉网式”的人脸信息收集,且未经个人同意,将严重威胁个人隐私。第三个方面是人脸识别技术在应用时可能会产生歧视效果,例如有研究发现,部分人脸识别技术对女性或有色人种的人脸图像进行处理时,产生错误结果的几率更高。针对人脸识别技术应用的规范,无论是从实务还是理论角度,我国目前形成的认识主要是从个人信息保护的路径切入。例如,我国第一起涉及人脸识别技术使用纠纷的民事案件——郭兵诉杭州野生动物世界有限公司一案,案件争议焦点在于作为个人信息处理者的杭州野生动物世界有限公司,其是否涉及违法或违约处理郭兵的个人信息,以及郭兵是否可以向个人信息处理者主张信息的删除权。再如,《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(法释〔2021〕15号)开宗明义地从个人信息保护的路径切入,在第1条明确:“因信息处理者违反法律、行政法规的规定或者双方的约定使用人脸识别技术处理人脸信息、处理基于人脸识别技术生成的人脸信息所引起的民事案件,适用本规定。”《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)虽然没有明确提及人脸识别技术,但该法第26条规范的“图像采集、个人身份识别设备”包括了人脸识别设备,并对在公共场所安装此类设备提出了原则性要求。在现有的学术讨论中,学者基本上也是从个人信息保护的角度展开对人脸识别技术应用的讨论。一方面,人脸识别技术将人脸图像转换成生物识别信息,由于《个人信息保护法》将生物识别信息归于敏感个人信息,因此自然应适用法律中规定的各项个人信息保护措施。同时由于人脸识别技术在应用中经常以无感知的方式收集人脸信息,导致个人信息保护法律框架中占主导地位的“知情—同意”框架难以实施,或者即便实施,人脸信息在收集后的处理中,可能超出原初个人同意的处理目的和范围。因此,学者们的讨论集中于如何扩展或重构适合于人脸识别技术应用的同意原则。在上述关于规范人脸识别技术应用的研究基础上,本文提出,对人脸识别技术应用适用个人信息保护法律框架,远不足以应对其带来的新型风险。对人脸识别技术应用应依循分层治理的思路,即首先厘清在应用、技术、信息、系统等四个层面分别可能出现的各种风险,并有针对性地开展风险防控,最终形成系统性的规制方案。近期,国家互联网信息办公室发布了《人脸识别技术应用安全管理规定(试行)(征求意见稿)》(以下简称《征求意见稿》)。本文将从分层治理论视角审视该规定,分析其得与失,并对分层治理路径的优化进路提出意见和建议。二、人脸识别技术应用产生的新型风险与适用个人信息保护法框架的缺陷
人脸识别技术是允许自动识别和匹配人脸的生物特征识别系统,该技术通过创建“生物特征模板”来提取并进一步处理生物特征识别数据。生物特征模板可以检测并测量人脸图像中的各种面部特征。通常来说,人脸识别技术主要通过人脸特征的处理来实现验证(verification)和识别(identification)的目的。人脸识别技术用于验证目的,是指将从人脸图像中产生的人脸图像数字特征,与特定个人的人脸图像数字特征进行比对(1:1比对),以确认个人是否具有其所声明的身份。验证目的普遍用于替代传统场景下的人工身份核验活动,如机场安检、酒店入住、银行开户业务中以架设专用人脸识别摄像设备并通过个人在指定场所范围内进行人脸识别以验证该个人身份。验证通常用于受控应用环境,即需要通过个人站立于指定区域等主动发起或配合活动来完成人脸识别。人脸识别技术用于身份识别(identification),指将从人脸图像中产生的人脸图像数字特征,与事先存储的不特定个人的人脸图像数字特征进行比对(1:N比对),以识别特定自然人。识别场景通常被用于维护场所的安全,典型示例如在车站等人流密集场所架设人脸识别摄像设备用以识别那些事先存储在系统中的监控名单(如通缉人员)。识别通常用于非受控应用环境,即在个人毫无感知且无需其配合的情况下进行。显然,使用人脸识别技术,会伴生错误识别或验证的风险。其或是因为技术本身的缺陷导致错误,或是因为技术训练所基于的样本偏向于特定人群,以至于对于样本之外情形的验正正确率明显偏低。目前的研究同时认识到,线下大规模使用人脸识别技术,会导致人脸信息被不同主体广泛收集,每个收集主体的数据安全能力存在明显差异,因此个人信息泄露或隐私泄露的风险急剧上升。随着技术进步以及技术应用方式的推陈出新,人脸识别技术在应用过程中还进一步产生了值得高度关注的新型风险。本节将对此展开阐述,在此基础上分析对人脸识别技术的应用仅适用个人信息保护法框架所存在的显著缺陷。(一)人脸识别技术实现线上与线下的贯通针对人脸识别技术在验证和识别方面的既有研究,虽然捕捉到了人脸识别技术的风险,但这些分析都是在单个时间节点上所得到的“切片式”观察(Snapshot)。如果拉长时间维度来全面地看待人脸识别技术的应用,就能发现人脸识别技术应用隐藏着新型风险。(1)线下场景。在确定自然人身份之后,人脸识别系统往往还持续运转,其目的在于跨时间、跨地理等维度,始终识别特定自然人,从而个人信息处理者能够在锁定特定自然人的基础上,持续捕捉到该自然人的其他信息,例如其所进入的商店、挑选的货品等各种信息,并将这些信息串联汇聚起来。此时,人脸特征信息构成了将纷繁复杂的行为信息做“同类项合并”的索引。(2)线上场景。通过人脸识别技术验证或识别特定个人身份之后,个人信息处理者往往会将人脸特征信息,与该自然人的手机号、设备识别码等在线上领域常用的主体标识符做串联。接下来,个人信息处理者会将原先与手机号、设备识别码等主体标识符关联的个人信息主体行为信息,与人脸特征信息进一步做关联,目的是确保特定个人在更换手机或者手机号码之后,依然能够重新识别该特定个人,确保以前收集的个人行为信息以及相应形成的个人行为特征信息不至于“丢失”。总之,个人信息处理者试图掌握各式各样的主体标识符,目的都是为了持续在网络空间中锁定特定个人,以此不断累积对其认识。目前,人脸识别技术嵌入各种创新应用场景之中,实现了线上和线下的打通。以新零售场景为例,自然人在部署了人脸识别设备的物理商店中挑选好商品,并在商店部署的支付终端中通过人脸识别完成身份验证或识别并最终完成支付,就会实现该次线下购买行为与原先在线上累积形成的个人特征画像的关联合并。这样的数据融合之所以能够实现,就在于人脸特征信息同时构成了线上场景和线下场景的主体标识符。因此,个人信息处理者天然就有动力去尽可能地掌握这样“便利”的标识符,打通线上和线下场景,完成对个人生活、工作的“全景覆盖”。人脸识别技术依赖的面部识别特征具有精确和唯一标识特定个人的高度可能性。正如在爱德华·布里奇诉南威尔士警察局长(R(Bridges)v.The Chief Constable of South Wales Police)一案中,英国上诉法院的判决指出,生物特征数据能够以某种精确度对个人进行唯一识别,正是这一点,使它区别于许多其他形式的数据。而且人的面貌不会轻易发生改变。因此,与其他类型的个人信息相比,面部识别特征及类似的生物识别信息具有与个人相关性更为精确、更加永久、更加不易改变的特点。一旦能够实现线上和线下贯通,人脸识别技术的应用就具备对个人进行“全场景监控”的可能。通过事先掌握某个个人的面部识别特征,人脸识别技术的应用者可以在布设有人脸识别设备的各类场所中轻易地识别到该个人。例如,2020年浙江某房屋销售中介拒绝给予购房者王先生“首次看房”享有的购房优惠,原因是该购房者“在联系我们之前,曾去过售楼处,并且被他们的人脸识别记录了”。在人脸识别设备架设范围足够广的情况下,王先生在任何场所的活动轨迹均可被人脸识别技术应用者(即该房地产企业)所追踪。(二)人脸识别技术实现外表和内在的贯通在实现对特定个人的标识之外,人脸识别技术能够对人脸特征进行分析,并进一步“揭露”该个人的内心想法、情绪变化、性格秉性等私密信息,此即为人脸识别技术中饱受争议的面部情绪识别(Facial Emotion Recognition,简称“FER”)技术。面部情绪识别分析包括三个步骤:人脸检测、面部表情检测、将表情归类为情绪状态。面部情绪识别的基础为对面部特征点(如鼻端、眉毛)的位置分析,在多张图片或视频的处理中,同时分析这些位置的变化,以识别面部肌肉的收缩,并基于算法将其归类为基本的情绪类别(如愤怒、厌恶、恐惧、喜悦、悲伤和惊诧),或复合情绪状态(如愉快地惊讶、悲伤地恐惧、悲伤地愤怒、悲伤地惊讶等)。除情绪之外,人脸识别技术还可将面部特征点的分析,用于判断特定个人的生理或精神状态,例如识别疲倦或者痛苦。面部情绪识别技术属于人脸识别技术在分类识别场景下的具体应用。而所谓的分类识别(categorization)目的,是指根据从人脸图像中产生的人脸图像数字特征,推断人脸信息主体是否属于特定群体。分类识别场景经常被用于对个人进行数字画像,例如当个人驻足于某架设了人脸识别设备的广告牌前时,广告投放者通过人脸识别技术分析个人面部图像所呈现的年龄、肤色、性别、人种等特征以将其分类,并根据分类归属向个人展示相应的广告或其他内容。分类场景可用于受控环境或非受控环境。近年来,分类识别的应用场景越来越广泛,例如提供个性化服务(如推荐音乐或文化信息)、客户行为分析和广告营销(如分析顾客购物过程中对商品或店内陈列的情绪反应)、医疗健康(如预测精神疾病)、雇佣与就业(如确定面试中候选人是否具有特定品质)、教育与培训(如监测学生的注意力)、公共安全(如对公共场所进行预测性筛查,以识别引发潜在恐怖主义威胁的情绪)、犯罪侦查(如发现商店行窃者)、交通安全管理(如检测疲劳驾驶)等。然而,以面部情绪识别技术为代表的人脸识别技术的分类识别应用,亦正因其能够披露个人内心活动或隐秘的品质,带来了另一新型风险——即外表和内心的贯通,使得人脸识别技术的应用具备实现了对个人“全维度监控”的可能。换言之,面部情绪识别技术已经突破了过往人脸识别技术对个人肉身意义上的监控,进一步深入到对个人情绪、精神压力、疲劳程度乃至政治态度等内在心理层面的监控。例如,外国研究者已经发现,在政治活动现场使用面部情绪识别技术,可以通过观察观众的面部表情和反应来推断出他们的政治态度。(三)新型风险凸显个人信息保护法框架的缺陷如前所述,技术和业务模式的双重推动,使得人脸识别技术具备了“全场景监控”和“全维度监控”能力。这样的能力除了“作恶”的可能性,当然还可能被用于实现正向价值。其一,在特定的应用中“全场景监控”能够实现公共整体利益。例如寻找失踪儿童、识别和追踪罪犯以及维护公共场所秩序。2016年的布鲁塞尔恐怖袭击后,借助美国联邦调查局(FBI)的人脸识别软件,警察确定了实施恐怖袭击的人员。2017年欧洲冠军联赛决赛中,英国南威尔士州警察局使用人脸识别技术对潜在的足球暴力活动进行安全监视,并最终由英格兰和威尔士高等法院行政庭作出判决,肯定了南威尔士警方使用人脸识别技术的合法性。2019年由英国信息专员办公室(Information Commissioner's Office,简称“ICO”)组织的调查也显示,有80%的被调查者同意警察使用人脸识别技术,因为他们认为这有利于社会安全。其二,“全维度监控”也可以有积极的价值。例如在医疗科研领域已经可以通过照片来诊断常见的遗传病,如唐氏综合征和迪乔治综合征。2020年末,北京阜外医院和清华大学的研究人员发表在《欧洲心脏杂志》(European Heart Journal)上的研究显示,他们开发了一种基于深度学习算法的人工智能系统,可以通过分析一个人的四张脸部照片,达到检测冠心病的目的。再如,许多人工智能企业一直在探索通过分析人们面部表情来确定司机是否疲劳驾驶。 总结起来,人脸识别技术的能力,从传统在单个节点实现个人验证和识别,到现阶段扩展到了对人的全面监控(即全场景监控+全维度监控)。可想而知,这些能力在被合规使用的同时,也不可避免地可能被滥用或误用。换言之,人脸识别技术的风险,从原先的三类——错误的身份鉴别或识别、个人信息权益侵害或隐私侵犯、算法歧视性效果,又新增了一类,即全场景监控叠加全维度监控所导致的全面监控。而在应对人脸识别技术应用可能导致的全面监控时,个人信息保护法框架事实上存在明显的缺陷。首先,个人信息保护的起始点是知情—同意。也就是说个人要对其个人信息处理知情,并表达自主意愿。但这样的起始点忽略了一个更为根本性和前置性的问题,即哪些主体,能够在哪些场景或位置,出于哪些目的或用途,可以架设具有人脸识别技术的设备或应用(以下简称“人脸识别技术应用”)。本文将此称为应用层问题。进一步说,个人信息保护经典框架并不解决应用层问题,即其默认一个主体可以架设或部署人脸识别技术应用。在架设或部署人脸识别技术应用后、开始收集人脸信息之前,该主体需要告知个人并征得个人的同意。个人可以拒绝信息收集行为,但是无法对在特定场景或地点架设或部署人脸识别技术应用本身提出异议。其次,个人信息保护的重点在于提供个体层面的保护。在面对人脸识别技术应用时,有些人会拒绝该应用的信息收集行为,但与此同时有人会予以同意。一旦在特定的场景或场所架设或部署人脸识别技术应用,就能够收集到人脸特征信息。在收集的人脸特征信息累积到一定的数量之后,特定自然人的人脸特征信息结合这些特定人的行为信息,就构成了个人信息处理者对特定场景、地点、社群等情况的集体性认识(collective understandings)。在目前大数据和人工智能技术的支持下,只要具备集体性认识,个人信息处理者就能够针对特定场景、地点、社群开展定向服务(targeted service),这其中包括对拒绝同意人脸信息收集处理的特定个人。换句话说,个人信息保护框架无法对群体实现保护。例如在特定社区使用人脸识别技术,就能够实现对特定社区中经常出现的人群或族群实现认识和了解,就能够有针对性地对该人群或族群施加影响。最后,个人信息保护法框架的基石之一是赋予个人对其个人信息的控制能力,但与此同时个人信息保护法框架天然存在例外情形,即无需告知个人或无需征得个人同意的情况。《个人信息保护法》第13条中规定的无需个人同意的情况即是典型情形。以“应对突发公共卫生事件”为例,《个人信息保护法》明确规定在应对突发事件过程中必须处理个人信息时无需个人同意,但这是否意味着可毫无限制地使用人脸识别技术,实现对个人的全景监控?答案显然是否定的。在前述例外情形下,法律赋予个人信息处理者不基于个人同意的法定合法理由,但放任人脸识别技术不加限制的应用,将会导致对面部识别信息持续性、广泛性的处理,并进一步导致对个人合法权益全方位的损害。因此,即便是在不需要个人同意的法定情形下,也应对人脸识别技术应用实施持续的、全面的风险管控。三、人脸识别技术应用的分层治理路径
从前述来看,个人信息保护框架并不能前置性地回答人脸识别技术在应用层所需要回应的问题,也不能全面系统地应对人脸识别技术所带来的全场景监控和全维度监控风险。进一步说,个人信息保护框架的缺陷本质,实为人脸识别技术的风险超越了单纯的个人信息控制风险。本文认为,人脸识别技术应用所蕴含的风险,糅合了对技术权力的忽视、对算法技术的依赖、对敏感信息的使用,以及对系统安全基础的需求等四个层面的立体风险。从这个思路出发,应当对人脸识别技术应用实行分层治理。(一)应用层问题人脸识别技术中对面部识别特征的应用与其他生物识别特征(如指纹)应用的区别在于,人脸识别技术使面部识别特征信息能够在不需要合作、不需要当事人知情或者使用强制力的情况下获得,并且可以大规模、长时段、跨区域地获得,能够由表及里地“窥探”个人内心。个人对其面部识别信息的控制能力显著削弱,因而在应用层需要从人脸识别技术应用的目的、范围、方式及应用主体等方面,结合应用场景对个人主体权益影响进行评价,确定应用层面的整体风险等级,并相应地从根源上限定应用人脸识别技术的场景和应用主体。在应用层需要确认的问题包括:出于什么目的,哪些主体能够在什么条件下安装使用人脸识别技术。例如对于半公共区域例如商店或小区,谁具有这样的权能等。欧洲国家的有关部门在这个层面上曾设置过一些零散的限制条件。例如,英国信息专员办公室(ICO)认为,实时人脸识别(live facial recognition,LFR)技术能够自动收集生物特征数据并予以应用,有更大的可能性被以侵犯个人自主性的方式使用。因此,对LFR来说,在监管层面首先需要考虑的是系统管控,首先审查系统出于什么目的部署以及如何使用,审查其部署是否符合比例原则,即所采取的手段造成的损害,与所欲实现的目的之间,必须是相称的、成比例的,两者不能显失均衡。如果从相对系统的思路来说,应用层面的问题可以从两个维度进一步展开分析。第一个维度在于可以使用人脸识别技术的主体是谁——公共部门或私营部门,即应当考虑并区分不同使用主体,并审查其目的是否符合最小必要原则。例如在公共场所中,公共部门在公共利益的支撑下,或许可以接入法定身份数据库并开展无需个人配合的人脸识别活动;但私营部门无论是否取得个人同意,均需论证开展同样活动的合法性。另一个维度即是否需要个人的主动参与或配合。通常而言,在无需个人主动参与或配合即能开展人脸识别(本文称为非受控环境)时,人脸识别技术可在个人毫无感知且无须其配合的情况下实时进行。例如在大型活动中扫描那些可能有暴力情绪变化的个人,但那些存在暴力倾向的个人乃至其他并不存在暴力倾向的个人的面部识别特征均被扫描,且他们对此毫无察觉。由于对个人信息控制权的明显抑制,个人权益所受影响明显加深,因而此类非受控环境中应用人脸识别技术应当受到更加强有力的法律规制。例如,某银行希望安装一套人脸识别系统,当识别到大堂客户中的VIP客户时,特定级别的销售人员将为其提供更为全面周到的服务。这种身份验证服务需要在大堂布设人脸识别技术应用并无差别地扫描每一位客户的面部特征,这样的做法实际上剥夺了那些非VIP客户对自身个人信息的控制权。相比之下,受控环境中人脸识别活动的开展需要个人积极的配合,例如将脸置于特定区域,配合的要求可保护个人的知情权和选择权。简言之,应用层管控的基础在于识别系统本身可能带来综合风险,进而确定应当由何类应用主体以何种目的和方式实施人脸识别技术。基于实践经验,我们可以按照比例原则实现对风险和成本的衡量、公共秩序与安全的衡量,构建一套以风险为基础的合比例的法律规制体系。这套方案的具体内涵是,根据识别分析技术在人脸识别中应用而可能产生的风险大小,动态调整法律规制的内容,以达到符合比例的效果。在国家互联网信息办公室近期发布的《征求意见稿》中,我们可以明显地看到比例原则的思路。其第4条明确规定“只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,方可使用人脸识别技术处理人脸信息。实现相同目的或者达到同等业务要求,存在其他非生物特征识别技术方案的,应当优先选择非生物特征识别技术方案。”这一规定充分反映了本文所称的应用层最小必要原则,即在人脸识别技术应用是否部署或上线前,即启动对整体应用场景目的的技术使用必要性的评估。《征求意见稿》在此方面的另一亮点即是直接明确“物业服务企业等建筑物管理人不得将使用人脸识别技术验证个人身份作为出入物业管理区域的唯一方式”。应用层最小必要原则与《个人信息保护法》第6条提出的最小范围原则并不相同。个人信息保护法框架要求的最小范围是对信息收集、使用而言,而应用层最小必要原则是在技术部署层面,属于先于个人信息收集的问题。例如在前述的银行识别VIP客户的例子中,应用层最小必要原则要求的是,如果仅出于对VIP客户提供优待服务,银行实际上可以通过在大堂设立VIP服务宣传专区,由潜在的VIP客户自行决定是否需要服务,继而通过身份验证(1:1比对)后接受服务。而个人信息保护的最小范围原则是指如果VIP客户自愿选择通过人脸识别进行身份验证,那么银行就不应该再收集其他信息用于身份验证。对应用层最小必要原则,《征求意见稿》还进行了两个维度的延伸。第一是体现了公私有别。例如,在第4条最少使用原则的统摄之下,《征求意见稿》非常有特色地区分了公共场合以及内部管理的人脸识别技术应用规范,具体体现在第7条和第8条。第二是体现在受控环境和非受控环境的区分。例如,《征求意见稿》第10条将“在公共场所、经营场所使用人脸识别技术远距离、无感式辨识特定自然人”,限定于“维护国家安全、公共安全或者为紧急情况下保护自然人生命健康和财产安全所必需,并由个人或者利害关系人主动提出”。这些都是《征求意见稿》超越个人信息保护要求,直接在应用层对人脸识别技术作出限定的重要体现。虽然《征求意见稿》在应用层鲜明地提出了最小必要原则,但其对前文分析的“全场景监控”和“全维度监控”所施加的管控措施不足。以在经营场所开展“全场景监控”能力是否作出限定为例,目前《征求意见稿》对验证个人身份行为管理较为宽松,仅提出不得“强制、误导、欺诈、胁迫个人接受”的要求(见第9条),对于识别个人身份则开了允许“个人或者利害关系人主动提出”的口子。对于限定“全维度监控”来说,《征求意见稿》难能可贵地提出“任何组织或者个人不得利用人脸识别技术分析个人种族、民族、宗教信仰、健康状况、社会阶层等敏感个人信息”,但仍然留下了个人“单独同意”的例外。在实践中获得个人“单独同意”的难度并不高,而除个人同意之外,《征求意见稿》设计的合规措施仅为自我合规性质的事前“个人信息保护影响评估”。(二)技术层问题在完成部署人脸识别技术应用的决策之后,下一个步骤即是做出人脸识别技术的选择,具体包括图像能力的选择(其决定了收集的人脸图像的距离、像素等),算法的选择(算法决定了如何从人脸图像中选择并提取特征点位,最终形成“人脸特征模版”;算法还决定了人脸特征模版的比对,以给出是否为同一个人的置信区间)。显然,人脸识别技术需要确保在技术层的精确性。既有的研究表明,影响技术层精确性的主要因素包括所使用训练数据的代表性、图像采集的准确性、算法性能、可解释性、鲁棒性(robustness)等。(1)技术层的第一个方面的要求是,人脸识别产品或服务应具备防止他人使用高清图片、动态模型、3D面具等进行破解的安全防护能力。由于人脸识别技术发展迭代很快,各厂商所应用的人脸识别技术水平参差不齐,存在错误识别和欺骗攻击的风险。例如刷脸取款、转账等场景,如果识别的准确率不够,可能因无法区别相似度高的人脸导致身份误判,造成用户财产受损。如果未进行有效的人脸活体检测,支付系统可能被恶意使用照片和视频、动态建模以及仿真人脸面具等方式欺骗。因此,在涉及个人财产、人身安全等重大利益时,应在评估技术的安全防护能力足够后,再考虑允许使用人脸识别产品或服务。(2)技术层的第二个方面的要求是人脸识别技术需要整体考虑算法的公允性。算法缺乏公允性导致的歧视和偏见一直是人脸识别技术乃至人工智能领域最受关注的科技伦理问题之一。就面部情绪识别领域,研究发现社会规范和文化差异会影响一些情绪的表达水平,而部分算法已被证实会因肤色对特定族群产生偏见。如一项测试面部情绪识别算法的研究显示,与其他面孔相比,算法会给非洲裔标记更多的负面情绪(如愤怒)。此外,每当有模棱两可情绪时,非洲裔人的面部愤怒分值也更高。因此,人脸识别技术应用所使用的算法、知识库等,应具备与服务目的相合适的准确率,不得因人种、肤色、族裔、性别、年龄或残疾状况等因素产生明显不公允差异。(3)技术层的第三个方面的要求是平衡精确性与适当性的要求。人脸识别技术无疑需要考虑所处理图像的准确性,影响图像准确性的主要因素为人脸识别技术的摄像能力,即摄像设备的精度和所采集的照片精度。但在追求精度的同时,仍然不应绕开比例原则的要求,应从摄像头精度、数据采集适当性角度进一步讨论人脸识别技术的技术能力是否贴合其在应用层所确立的必要目的。例如,在人脸支付应用场景下,应该采集高精度照片,以确保不会出现识别错误,从而保障个人主体的财产权益不受损害。但与此同时,小区物业架设的门禁系统场景中,人脸识别则不需要用太高精度或远程的人脸识别技术及设备。因此,人脸识别技术应用在技术层的考量是多维度的,一方面要避免其不能稳定、准确、公允地进行验证和识别,另一方面也要避免其能力超出必要程度,以致“杀鸡用了牛刀”。《征求意见稿》对此有两方面的回应。一是其明确“涉及社会救助、不动产处分等个人重大利益的,不得使用人脸识别技术替代人工审核个人身份,人脸识别技术可以作为验证个人身份的辅助手段”。即在涉及个人重大利益时,出于对人脸识别应用在技术层精确性的担忧,《征求意见稿》表达了人工审核优于技术验证的立场。二是《征求意见稿》将“是否限于实现目的所必需的准度、精度及距离要求”作为人脸识别技术使用者开展个人信息保护影响评估的内容之一。但《征求意见稿》在技术层的一大遗憾是没有对算法公允性作出直接、明确的规定,而算法公允性问题已经越来越凸显。也就是说,对于“全维度监控”中必须回应的人脸识别技术准确性问题,《征求意见稿》仅规定了自我合规性质的事前“个人信息保护影响评估”作为回应。(三)信息层问题通过人脸识别技术的技术层(即图像能力和算法)采集和处理,特定个人的面部图像就转换成了电子化的面部识别特征(即人脸特征模版)。本文将电子化人脸特征模版的处理阶段,称之为信息层。在信息层问题上,本文着重讨论个人信息处理的合法理由、个人信息经人脸识别技术应用主体收集后如何流转,以及个人如何行使其知情权、查阅权、删除权等问题。尽管回归了经典理论,但人脸识别技术应用在信息层的个人信息处理仍存在特异性的问题,如对“全场景监控”和“全维度监控”的限制问题。(1)《征求意见稿》对面部图像和面部特征信息提供了增强式的保护。从个人信息保护法理来说,人脸图像(原始的照片或视频)本身并不包含《个人信息保护法》所提出的生物识别信息,后者必须经过相关技术提炼后形成,属于法定意义上的敏感个人信息。因此,人脸图像和面部识别特征通常不被视为同一敏感程度的信息。但是,由于人脸图像能够被加工为面部识别特征信息,因而对人脸图像的管控也应当区别于一般信息。《征求意见稿》对此做了针对性的规定,例如“除法定条件或者取得个人单独同意外,人脸识别技术使用者不得保存人脸原始图像、图片、视频,经过匿名化处理的人脸信息除外”。这体现了《征求意见稿》对此特殊问题的关注。(2)但对于防范“全场景监控”和“全维度监控”,《征求意见稿》的规范密度明显不足。“全场景监控”是在线上、线下场景均使用面部识别特征为唯一的标识符,即“特定个人A的面部特征信息+线上行为信息”与“特定个人A的面部特征信息+线下行为信息”借由面部特征信息,实现了打通或合并。因此,立法应当从控制个人信息汇聚或合并的角度提出控制性要求。但《征求意见稿》仅在“使用人脸识别技术远距离、无感式辨识特定自然人”这一情形中,提出“不得关联与个人请求事项无直接必然相关的个人信息”(见第10条)。“无直接必然相关”条文的限定指向不清,而且显然遗漏了对在身份验证过程中是否可以关联行为信息的规定。(3)再看“全维度监控”。由于人脸识别技术“穿透”到内心和内在的能力,《征求意见稿》将“维护国家安全、公共安全或者为紧急情况下保护自然人生命健康和财产安全所必需”以及“取得个人单独同意”作为合法性门槛,但对之后(且不说个人单独同意是否会流于形式)的管控措施,没有作出应有的设计。例如在规定“不得利用人脸识别技术分析个人种族、民族、宗教信仰、健康状况、社会阶层等敏感个人信息”之后,这些敏感个人信息甚至是个人隐私信息的合并、汇聚、后续利用、删除、目的限定等内容,《征求意见稿》均没有提及。这些敏感个人信息与个人隐私信息,通过面部识别特征这个标识符进入到“全场景监控”的领域及其产生的风险,《征求意见稿》同样没有提及。(四)系统层问题人脸识别技术应用的应用层、技术层及信息层,均需要建立在系统层的安全保护基础之上。系统层主要是保障人脸识别技术应用的可持续运行以及人脸信息的机密性(confidentiality)、完整性(integrity)、可用性(availability),即信息安全中的CIA三性。需要首先明晰系统层运转的基本逻辑。机密性是指保证人脸信息不被非授权访问,或者即使被非授权访问也无法知晓信息内容。同时阻止非授权用户获得机密信息,或者对机密信息进行加密。完整性是指维护人脸信息的一致性,保证人脸信息在生成、传输、存储、使用和流转过程中未发生未经合法授权的篡改。这一方面要求人脸数据的完整性,即人脸数据未被破坏;另一方面要求人脸识别系统的完整性,即人脸识别系统不被非法入侵和操纵,按照合法的使用目标来运行。可用性是指保证人脸信息资源能够随时提供服务,授权用户可以根据需要随时访问所需信息,保证合法用户对信息和资源的使用不会被不正当拒绝,这是对人脸识别系统总体可靠性的要求。以上是任何信息系统在运营中需要持续保障的安全能力。这也是《网络安全法》对网络安全界定的题中之义。《征求意见稿》第17、19、20条是针对系统层可能引发的问题作出的规定。与一般信息系统不同,人脸识别技术应用的系统层也存在其特定问题。最突出的一个问题是,能够开发人脸识别技术的主体和部署人脸识别技术应用的主体,实践中往往不是同一个。例如,在个人通过银行在线办理小额贷款业务的个人身份识别场景中,决定架设人脸识别技术应用的一方为银行,而人脸识别技术的具体提供者则通常为独立的第三方技术公司。在这个场景中,银行尽管使用了人脸识别技术服务,但其实际上并不采集面部识别信息,而是委托第三方技术公司直接在其数据库中完成图像或视频采集、面部识别特征提取以及与现有数据库进行比对的工作。在银行与第三方技术公司之间,显然第三方技术公司对个人的面部识别信息具有更大的决策权。第三方是否更应该被纳入技术层、信息层及系统层的分层治理框架之中?更为明显的例子是,小卖部、小超市、小旅店等部署人脸识别支付应用设备,虽然这些商家同意了应用设备的部署,但显然人脸识别支付应用设备的提供商对技术层、信息层及系统层更加具有话语权和控制力。 因此,系统层的安全责任如何分配,显然需要考虑行业的现实情况。更进一步说,不仅是系统层,在应用层、技术层和信息层,也都需要考虑责任在上下游的分配问题。但遗憾的是,《征求意见稿》对上下游责任的分配不完全符合实际情况。例如人脸识别技术、产品、应用的提供者,负有“符合网络安全等级保护第三级以上保护要求,并采取数据加密、安全审计、访问控制、授权管理、入侵检测和防御等措施保护人脸信息安全”责任,但人脸识别技术使用者却要承担“每年对图像采集设备、个人身份识别设备的安全性和可能存在的风险进行检测评估,并根据检测评估情况改进安全策略,调整置信度阈值,采取有效措施保护图像采集设备、个人身份识别设备免受攻击、侵入、干扰和破坏”的责任。如前所述,银行尚能履行这项义务,但该义务已经远远超过小商家的履行能力。因此《征求意见稿》的该项规定并不符合权责一致原则。四、人脸识别技术应用分层治理的优化进路
《征求意见稿》初步体现了对人脸识别技术应用的分层治理路径,但仍留有遗憾。例如,并未从应用层的整体风险出发对风险层级划分原则进行指导,而仅是通过对具体的应用场景以列举式的方式提供管控要求,对于可能出现的新应用场景缺乏在最少使用原则之下的细化风险分类指导。此外,对于技术层所涉及的算法问题并未涉及。作为人脸识别技术的重要倚仗,算法的安全、公平、向善将从技术底层决定个体所面临的人脸识别技术风险,因此,算法问题宜被引入正式稿。在信息层,《征求意见稿》对行为信息和面部识别特征的关联所提供的控制不够,在系统层的安全责任分配也与现实脱节。尽管存在上述遗憾,但《征求意见稿》以应用场景为切入点,以持续管控风险为目标,统筹关注应用层、技术层、信息层及系统层问题,在人脸识别技术乃至人工智能监管策略上做了具有中国特色的尝试,具有里程碑意义。下文将进一步探讨分层治理理论在人脸识别技术应用规范中的完整展开。(一)基于分层理论,推进规范构建
分层治理理论实现了对人脸识别技术风险的立体回应,也顺应了人脸识别技术应用整体生命周期的进展要求,符合规范构建的治理逻辑。在此基础上,规范构建也可以充分考虑分层治理理论的构建逻辑,从人脸识别技术应用的整体层面及应用生命周期展开思考。(1)从人脸识别技术应用层出发,着重构建应用准入制度。如上文所述,应用层首先需要确立最小必要原则来对人脸识别技术应用目的进行评估,评估的维度应当包括主体是谁、环境是否受控、各方利益是否得到平衡。在主体层面,应着重关注更容易对个人权益造成威胁的公共机构和执法机构;在环境层面,应当额外注意非受控场景下个人对其信息所享有的控制权的保障,尤其是基于分类识别技术在不知情状况下被采集和分类的群体的权利保障;在利益平衡方面,应遵循经典的国家利益、公共利益、个人利益的排序准则。在出于刑事案件防控目的所应用的人脸识别技术中,个人权益应向公共利益让行,但若仅出于观测政治态度目的在公共场所架设人脸识别技术,则架设者即缺乏高于个人权益的利益以论证其合理性。概言之,“场景正义”要求信息保护和信息流动在不同场所中应符合各方预期。需要指出,人脸识别技术应用的准入制度目前缺乏在最少使用原则之下的风险分层标准,仅以列举方式对现有高风险或常见应用场景进行了规制,在技术发展日新月异的时代下,新场景的出现无法准确预知,因而需要更为灵活且具有前瞻性的法律监管框架。在这方面,欧盟《人工智能法案》为AI系统引入的四种风险类型,即不可接受的风险、高风险、有限风险和极低风险,可以作为国内规范构建的良好借鉴,特别是针对新近出现的“全场景监控”和“全维度监控”的规范构建。(2)从人脸识别技术的生命周期出发,综合考虑各个层面可能遇到的风险因素并预设规则。如前文所述,应用层、技术层、信息层、系统层恰恰遵循人脸识别技术生命周期的演进路线。而每个层面的风险因素可以依靠已有的经典治理模型进行应对。例如,在技术层,可以引入现有的算法监管体系规制人脸识别技术的透明度、公允性等基本问题;在系统层,可以按照传统的机密性、完整性、可用性(CIA)要求对人脸识别技术安全性进行保障;在信息层,经典的个人信息保护框架足以应对信息层面的处理合规。针对那些经典监管框架之外的“漏网之鱼”,则应通过类似于《征求意见稿》等细则进行规制。
概言之,立法者应当坚持系统观念和问题导向的思维,既要在坚持“一盘棋”的基础上,统筹协调不同层面、不同主体的不同利益,从体系化视角充分保障人脸识别等新兴技术的发展活力,又要针对具体领域,在合法和合理应用的基础上探索人脸识别技术的应用边界,切实降低风险发生概率。具体而言,我国应当采用严格标准明确进入人脸识别技术应用市场的准入资格,既不能像欧盟那样保守,又不能像美国那样宽松,而是要张弛有度,以公共利益和个人利益的最大化作为平衡点和门槛,针对不同应用风险建立相应的动态准入标准,建立从应用层、技术层、信息层到系统层的综合准入规则体系和标准。
(二)基于分层理论,推进多元协同治理
人脸识别技术应用在应用层、技术层、信息层和系统层存在的各种风险要素涉及不同法律规范的适用。因此,多元协同治理是基于分层治理理论以规范治理人脸识别技术应用的应有之义。多元协同治理的内涵,不仅限于常规理解下的监管部门的多部门协同治理,更应当考虑监管部门的多维度治理。以上文提及的应用准入制度而言,若所有的人脸识别技术应用均采用严格准入模式,则势必阻碍人脸识别技术的正常发展,或导致监管部门的审批压力增加从而削弱监管效率。引入个人信息保护框架下的个人信息保护影响评估制度、个人信息审计制度并结合监管部门的备案制度、检查制度和处罚制度或可有效解决该矛盾。各监管部门在关注与该部门职责密切相关的人脸识别技术应用风险要素时,还应同时考虑该风险要素处置与其他监管部门的有效联动和职责分工衔接。例如算法安全这一风险要素即分别对应网信部门和公安部门的监管职责。针对主要风险要素划定第一责任部门,或参考个人信息保护影响评估制度中由公司内部多部门共同成立的评估小组机制或可解决该难题。例如,对于高风险应用场景,应至少由网信部门、公安部门及相关关联部门共同组成评估小组,根据不同的风险因素发表各自领域的专业意见,达到基本一致意见后相关技术才可进入该高风险应用场景。
多元协同治理的另一重要目标将落脚在监管架构设计前对人脸识别技术主要风险点的识别和掌控。对于人脸识别技术应用而言,最为主要的风险点即面部识别特征带来的应用层风险。因为面部识别特征不易改变,且可通过非受控场景获取生物识别信息,其不易改变的属性导致个人极易因面部识别信息被“全场景”和“全维度”的关联,面部特征信息可通过非受控场景获得意味着个人几无可能控制其面部识别特征的采集、流通和关联。面部识别特征滥用将导致个人权益面临极大风险,故避免个人权利受到侵害是防控人脸识别技术应用危害的关键。面部识别特征的主要风险点管控应落脚于信息层监管,网信部门自然是主责部门。但是,若考虑到个人对其面部识别特征在人脸识别技术应用场景中的大量失控,乃至完全无从入手行使其权利的情况,引入其他具有技术背景的监管部门共同参与监管,从而从系统层面阻断面部识别特征的滥用,是有效的补充和救济手段。监管部门面临的另一重协同考验在于在保障和平衡各类利益的同时,需要兼顾技术发展。一方面,应当建立事前审批程序。由网信部门联合其他职能部门进行责任划分,明确不同部门在审批环节的职能权限,综合评估人脸信息识别技术主体的综合条件并针对主体条件的差异探索相应的风险定级。另一方面,加强过程监管。政府部门在监管过程之中应当做到有理有据有节,即在尊重信息识别技术发展规律的基础上,对于超出监管要求的行为主体在事实充分、证据清楚的前提下施加相应的惩戒措施,但同时也要适度、有节制,避免政府这只有形的手伸得过长。
在监管部门之外,应重视和加强行业自律的作用。例如,“知情—同意”规则是处理包括人脸识别信息在内的个人信息的核心规则,企业完成这一核心规则的具体表现形式通常是通过告知《企业隐私政策》完成的。当前人脸识别技术的应用普遍存在着“不同意则无服务”“不知情已收集”等问题,公众只有接受规则或者尚未了解规则便已经进入了人脸识别技术的应用场景之中,这种强制同意规则以及不提前告知程序严重违背了“知情—同意”规则的初衷。因此,企业主体应当加强自身规范化建设,建立与法律法规相适应的规章制度;同时充分发挥行业协会的作用,构建比法律法规更加细化的行业标准,并探索横向主体之间的监督机制。此外,企业主体应通过行业协会向监管部门及时反馈行业现状,保障行业发展。
发挥公众监管的作用。社会公众和社会团体具有广泛的代表性,并以其专业、高效和务实的特点,在填补人脸识别信息治理空白、增加治理机制灵活性等方面发挥着重要的作用。在公众参与方面,不仅要开拓健全公众参与的途径,而且应鼓励公众以公开、民主、透明的方式参与治理。具体而言,人脸识别技术应用的使用范围、使用方式、风险等级以及保障措施等方面需要公之于众,同时在技术应用过程中,技术监管方应当积极回应公众的关切并接受公众监督。只有加强企业、社会团体和公众的参与度和融合度,才能有效建立起基于分层理论的人脸识别技术应用多元协同的监督体系。
五、结语
在数字经济时代,数字技术的创新应用成为社会发展和时代进步不可逆转的潮流,人脸识别技术也不例外。任何技术的发展应用都具有双重性质,其在为社会生活带来便利的同时,也存在潜在的应用风险。若要实现人脸识别技术的规范应用和长足发展,必须正视风险,从应用层、技术层、信息层、系统层四个维度分析人脸识别技术的风险类型和风险本质,探寻其背后的技术应用基础和逻辑。为完成人脸识别技术应用分层治理的制度化、体系化设计,应当从理论角度出发,从多个方面优化人脸识别技术的分层治理制度进路,为人脸识别技术的系统化、规范化发展提供方向引领和框架参考,以最大程度地发挥人脸识别技术的工具价值和应用价值。
(本文责任编辑 贾同乐 马治选)
因篇幅限制,略去原文注释及参考文献。
编辑:孙禹杰
审核:寇 蓉
签发:马治选
扫码关注《法律科学》