查看原文
其他

罗攀|人脸识别中个人生物信息处理的法律规制

罗攀 上海市法学会 东方法学 2022-11-11

罗攀

中南财经政法大学硕士研究生

要目

一、问题的提出二、数字时代人脸识别的整体性风险三、规制人脸识别的基本原则四、敏感个人生物信息处理者的义务五、多层次监管体系的构建结语


人脸信息作为一种典型的个人生物信息,属于敏感个人信息,其具有难以更改性和泄露后损害的不可逆性,一旦泄露将是终身泄露。人脸识别因存在技术误差风险、信息泄露风险和算法歧视风险,会造成公民人身、财产和心理上的安全隐忧,对人脸识别中的个人生物信息处理进行法律规制已刻不容缓。在对人脸识别的规制中,应贯彻民法典确立的合法、正当、必要原则,引入比例原则,落实知情同意原则、最小权限原则和可注销原则。明确个人生物信息处理者的义务,推行个人生物信息侵权纠纷过错推定原则,实施人脸识别行业许可制度,增设数据保护专员岗,对公共主体和私营主体分类监管,构建多层次监管体系。

一、问题的提出

2020年,一场疫情席卷全球,在这次疫情中人脸识别也得到迅速推广,很多居民小区、学校等人员密集的地方比以往多了一道刷脸门禁。刷脸能够让人员出入信息更清晰明了,便于小区和高校的疫情防控。但是疫情期间很多小区和高校将刷脸作为人员出入的唯一方式,这种擅自收集公民人脸生物信息的行为涉嫌侵犯公民的人格尊严和隐私权。郭兵诉杭州野生动物世界服务合同纠纷案已由法院作出一审判决((2019)浙0111民初6971号)),杭州市富阳区人民法院支持了郭兵要求杭州野生动物世界删除办理年卡时提交的包括照片在内的面部特征信息的诉讼请求。2021年4月9日,杭州市中级人民法院对该案作出二审判决,二审在一审判决的基础上支持了郭兵要求杭州野生动物世界删除办理年卡时提交的指纹识别信息的诉讼请求。这是我国司法实践上对公民个人生物信息进行保护的第一案。

目前我国人脸识别技术的准入门槛很低,行业资质良莠不齐,市面上已经开始出现人脸识别的滥用现象。2020年10月13日,App违法违规收集使用个人信息专项治理工作组与南方都市报个人信息保护研究中心·人工智能伦理课题组联合发布了《人脸识别应用公众调研报告(2020)》(下称《人脸识别调研报告(2020)》),《人脸识别调研报告(2020)》调查的2万多受访者中,有64.39%的受访者认为人脸识别技术有被滥用的趋势;有30.86%的受访者已经因为自己的人脸信息泄露、滥用等遭受损失或隐私被侵犯;有61.49%的受访者希望国家出台相关法律法规或者行业标准来规范人脸识别的应用。

人脸信息不同于一般的密码等数字信息,人脸信息作为个体生物信息具有难以更改性、个体性、独特性和伤害不可逆性,一旦泄露就是终身泄露,给个人带来的损失几乎无法补救。2020年我国出台的民法典第1034条将“生物识别信息”纳入个人信息的范围内,确立了个人生物信息保护的基本法依据。在大数据时代,人脸生物信息的收集主体、收集条件、处理主体,以及泄露后的追责方式与救济方式,亟待法律规制。

二、数字时代人脸识别的整体性风险

疫情后人脸识别在国内得到迅速推广的原因有以下几点:一是基于社会治理的需要,将人脸识别用于疫情防控,在居民小区和学校等人口密集的地方使用人脸识别门禁系统,便于快速测量体温和管控出入人员,方便社区和学校管理;二是目前国内尚无人脸识别规制的法律,因此人脸识别行业的准入门槛低,相关企业急于将技术变现,所以努力在各种场景中作商业性推广。人脸识别技术在疫情防控中或许起到了一定的作用,但是人脸识别的潜在风险更是不容小觑。

技术误差风险

人脸识别技术一般由四个步骤构成:一是通过摄像头对人脸面部信息进行扫描,二是系统将摄像头扫描到的人脸信息编成数字代码,三是将这些数字代码储存在数据库中,四是当摄像头再次识别到相同人脸信息时,系统将该信息与数据库已有信息进行配对。其背后的技术原理是通过算法匹配已知个体,即将提取到的人脸图像特征与现有信息库中的人脸数据信息进行匹配,达到识别个体的目的。但是任何技术多多少少都会存在误差,人脸识别技术也不例外,目前人脸识别技术准入门槛低,人脸识别技术的误差高出其应有的容错率,美国公民自由协会曾做专门过一个测试,来检测亚马逊人脸识别系统的误差,测试结果是亚马逊人脸识别系统将二十多位国会议员的照片识别为犯罪嫌疑人。如果将人脸识别技术应用于刑事侦查对比犯罪嫌疑人,那么这种技术误差很可能会把两个长相相似的人识别错误,把无辜的人识别为犯罪嫌疑人,真正的罪犯可能未能被识别出来而成为漏网之鱼,造成冤假错案。

不仅如此,居民小区和学校门禁的人脸识别系统中也经常出现识别错误问题,在通过人脸识别门禁系统时,电脑屏幕上匹配到的是一个完全陌生的人。如果把人脸数据信息比作是一把钥匙,那么这种技术误差将会直接导致开锁的钥匙不唯一,并且这把钥匙背后所承载的所有重要信息、隐私和财产,都会面临被泄露被侵犯的风险。而原理上本应该是最方便最保险最安全的人脸数据就成了个人重要信息、隐私等被破解的最大漏洞。现在刷脸支付也在逐渐普及,如果这种技术误差出现在刷脸支付领域,那么将会直接带来个人账户内的电子资金被盗刷的风险,危及公民的财产安全。

信息泄露风险

如清华法学院教授劳东燕所说“人脸数据一旦泄露就是终身泄露”,因为人脸信息具有直接识别性、方便验证性、易采集性、独特性、难更改性。没有什么比一个人的人脸更容易被识别到,一个人无论走在哪里都会暴露面部特征。人脸信息不同于普通的数字信息,人脸信息是一种典型的个人生物信息,一旦泄露无法更改,而且造成的损失也是不可逆的,几乎没有补救措施。

2019年,国内的一家人脸识别公司—深网视界,它的人脸识别数据库在网上是开放访问的,这其中收集了200多万条人脸数据。截至2021年3月25日,在天眼查上发现该企业经营状态依然是存续,但是企业官方网站已不可访问,深网视界的控股公司东方网力科技股份有限公司被证监会警示退市风险,除此之外,深网视界和东方网力科技股份有限公司没有作出更多的回应。这已经被泄露的200多万条人脸数据已经无法挽救,这些人脸生物信息的主体应该如何维权,如何寻找救济,也没有相关部门作出回应。目前国内人脸识别技术的准入门槛极低,对于批量生产人脸识别闸机的公司,相关部门没有设置资质审查之类的准入门槛,对于收集到的人脸生物信息的存储和保密,国家也没有出台行业标准。甚至连公厕都可以擅自安装人脸识别系统,这些收集到的人脸数据大多是由商家或者是企业掌控,没有国家公权力保障的人脸数据一旦泄露,会给公民造成不可估量的损失。而且这些掌控人脸数据的商家和企业,鲜有能力承担信息泄露的风险,公民被侵权后的维权也相当困难。

算法歧视风险

人脸识别技术的应用分为三个层面,第一个层面是用于身份认证,即人脸认证;第二个层面是将收集到的人脸信息储存在数据库中,用于人脸识别;第三个层面是将收集到的人脸信息进行归档、分类和智能化分析,即人脸聚类。算法歧视风险一般产生于第三个层面,即使用聚类算法分类人脸信息,用于精准营销。

2020年“戴着头盔看房”的视频在社会上引起广泛热议,究其原因,不少售楼处都安装了人脸识别系统,用于分类自访客户和中介渠道客户,目的是为了与购房优惠挂钩。这背后的操作原理就是在客户看房无意经过售楼处有意安装的摄像头时,售楼处的人脸识别系统对来访客户的脸部进行抓拍,然后通过聚类算法进行人脸搜索和匹配,进而分类客户。售楼处这种将人脸识别用于客户分类的做法直接侵害了购房者的平等权益,其实质是一种算法歧视。2021年3.15消费者权益保护晚会上第一个案例就是科勒卫浴在未获得客户授权的情况下,利用监控设备采集客户人脸信息,用于识别客户身份,记录客户的来访次数。科勒卫浴在全国有上千家门店,消费者只要进了任意一家门店,人脸信息就会被系统编号生成ID号,今后消费者再去科勒卫浴的其他门店,系统都能查到之前的来访记录。为科勒卫浴提供摄像头的科技公司是万店掌,通过天眼查发现,万店掌成立于2016年,公司注册资本673万人民币,实缴资本583万人民币。该公司目前拥有的人脸数据量已经上亿。万店掌通过采集到的人脸照片分析人的性别、年龄甚至是抓拍时的心情,为商家提供精准营销方案。这背后的原理也是通过聚类算法,将摄像头收集到的人脸图像归类、建档。使用万店掌摄像头的商户就可以依据万店掌提取、反馈的信息,对来访消费者“看人下菜碟”,其实质依然是算法歧视,损害了消费者的人格尊严。

三、规制人脸识别的基本原则

比例原则

美国著名学者罗纳德在《认真对待权利》一书中写到:“一个负责任的政府必须准备证明它所做的任何事情的正当性,特别是当它限制公民自由的时候”。2020年的疫情中,人脸识别技术被大量地推广,居民小区和高校将人脸识别门禁应用于疫情防控,小区居民和高校返校学生没有其他的选择。人脸信息被采集者不知道人脸识别门禁系统的技术提供公司,也无法知道自己的人脸信息被如何储存处理。

传统三阶比例原则包括适当性原则、必要性原则、狭义比例原则。适当性原则要求手段适合目的之达成,必要性原则要求要在多个手段中采取对基本权利干预最轻的手段。狭义比例原则又称“均衡原则”,该原则要求在人脸信息的采集者和被采集者间进行衡量,在公共秩序与人脸识别的风险间进行衡量。有学者将人脸识别技术的使用情形归纳为三种:应当使用、可以使用和不需要使用。在可以使用的情形下,就应当运用比例原则充分衡量个人生物信息采集者与被采集者双方的利益,力求二者利益的平衡。疫情期间,一些小区通过人脸识别门禁来管控出入的居民,其目的是便于小区更高效更清晰地审查每天出入的居民身份,尽管是基于疫情管控的目的,但是人脸识别并不是唯一的验证身份的方式,将人脸识别门禁系统作为疫情防控下出入小区的唯一手段,显然就与比例原则背道而驰。小区完全可以赋予小区居民自行选择持身份证等有效证件出入小区来替代“刷脸”的选择权。给予公民替代性选择,既体现了对人权的保护,同时又可以较好地平衡个人生物信息采集者与被采集者双方的利益。

人脸信息被“野蛮生长”的产业所裹挟,用户的生物信息被暴露在各种潜在风险之下,人脸识别的滥用现状违反了“实用主义理论”。鉴于人脸识别存在的潜在风险不可控且人脸信息数据一旦泄露则是终身泄露,会给公民带来难以弥补的损失,所以应当将比例原则作为规制人脸识别的首要原则。人脸识别技术存在的目的是通过人脸实名认证更好地保障公民的财产或者其他重要个人隐私信息。如果因为滥用人脸识别导致公民的个人生物信息被泄露,给公民的其他隐私或者财产带来巨大损失,则是本末倒置。

知情同意原则

知情同意原则是指公民对人脸等个人生物信息的采集主体采集目的以及对个人生物信息的储存处理等过程享有知情权,并且对非必要情况下个人生物信息的采集享有同意或者拒绝的权利,此处的非必要情况是指不是用于政府管制或者公益目的。早在2008年,美国伊利诺伊州颁布的生物信息隐私法案(下称“BIPA”),就规定了企业初次收集个人生物信息需要得到授权。知情同意原则在民法典第1035条第1款中也得到体现,即“处理个人信息的应当征得该自然人或者其监护人同意”。还有学者在知情同意原则的基础上进一步提出了“动态同意原则”,即公民有权利在同意被采集人脸信息后根据采集主体对个人生物信息的使用情况选择撤销之前的同意,如此既强化了对采集主体的公众监督,又可以更好的保护公民的个人生物信息。

动态同意原则建立在公开透明原则基础上。2020年10月1日,新版《信息安全技术个人信息安全规范》(下称《规范》),《规范》中明确了个人信息控制者处理个人信息应遵循目的明确、公开透明原则。公开透明原则是指人脸信息的采集主体对人脸信息的储存、使用、处理等过程应当公开透明,确保公民可以像查看流水账单一样明细地知道自己的人脸信息等生物信息在何处何时被使用,并且也可以随时了解到人脸信息的采集主体对这些收集来的人脸信息的储存和保密情况。任何一项新型科技要想长远地发展下去,甚至实现商业价值,从企业的角度而言,首先应当遵循“公开透明原则”让公民可以放心接纳并使用该项技术。人脸识别技术的提供者只有做到将人脸信息的采集、储存、处理等各个过程公开,用户才有可能支持人脸识别技术的应用和推广,“动态同意原则”才能不流于形式,在实践中得到遵循。

最小权限原则

最小权限原则(Principle of least privilege)最早出现在PeterJ. Denning的《容错操作系统》(Fault tolerant operating systems)一文中,最小权限原则是指计算环境中的每个模组,例如进程、用户或者计算机程序,只能访问必须的信息或者资源,其目的是避免数据遭受错误或者恶意的破坏。

人脸生物信息作为一种特殊的个人信息,在对人脸信息进行储存、处理等各个环节都应当遵循最小权限原则,只赋予人脸信息的采集者和控制者完成工作所需的最小权限。这是狭义上的最小权限原则,广义上的最小权限原则还应体现在对个人生物信息进行采集的环节,也即非必要不采集原则。提出非必要不采集原则是因为“知情同意原则”在实践中大多流于形式,在大街小巷分布了各种各样的摄像头,而且这些摄像头的拍摄完全不需要公民的同意,即使人脸信息的采集主体已经通过隐私政策、个人信息保护政策等文件履行告知义务,但是很多情况下并没有赋予信息主体说“不”的权利,因为信息主体一旦接受信息采集主体提供的服务,就必须同意,别无选择。“知情同意原则”在具体实施中变相成了“知情被同意”。在疫情期间,一些居民小区将门禁统一换成刷脸门禁,小区居民不刷脸就不得出入,居民被迫必须同意刷脸。基于“知情同意原则”的履行困境,对人脸信息的规制应当遵循“非必要不采集原则”。2020年10月我国颁布的个人信息保护法(草案)中设专节对处理敏感个人信息的行为作出更严格的限制,个人信息保护法(草案)第29条中已经明确提出“个人信息处理者具有特定的目的和充分的必要性,方可处理敏感个人信息”,不过此处的“充分必要性”按照文义解释是针对处理敏感个人信息的环节,而“非必要不采集原则”则是从采集源头上对个人生物信息进行保护,是对个人信息保护法(草案)中“充分必要性”的进一步深化。只有将个人生物信息的采集者、处理者、控制者权限最小化,个人生物信息泄露的风险才能最小化,对公民个人生物信息的保护方能最大化。

可注销原则

可注销原则的理论基础源自国外的“被遗忘权”,又称“删除权”,是指信息被采集者有权要求信息采集者永久删除其被采集的个人信息。“被遗忘权”在国外司法实践中得到首次确认在是“冈萨雷斯诉谷歌”一案中。可注销原则,顾名思义就是像我们在一些客户端上注册的账号,一旦不想继续使用该账号即可选择永久注销账号。人脸生物信息不同于账号密码,其具有难更改性,正因如此,对于商家、企业收集到的人脸信息,公民有权利要求其永久注销信息库中的个人人脸信息。如果将人脸识别系统后台收集到的大量人脸信息比作手机相册,那么可注销原则就是赋予公民自由选择删除照片的权利,并且有权要求云端同步删除,达到类似网络账号注销的效果,即一旦注销,无法查找,也无法恢复。 

四、敏感个人生物信息处理者的义务

个人生物信息是指以自然人的生理特征与行为特征为内容的信息,除了人脸面部信息之外,还包括DNA、指纹、虹膜、声音等信息。2020年新版《信息安全技术个人信息安全规范》中明确个人生物识别信息属于个人信息的范畴。因个人生物信息具有难更改性和泄露后造成的损失不可逆这两大特殊属性,所以明确个人生物信息处理者的义务和责任就显得尤为重要。

企业内部增设数据保护专员岗

数据保护专员就是指定期、系统地对大数据进行检测的工作人员。数据保护专员一词最早源于德国,在1977年的德国数据保护法中首次出现,紧跟其后,欧盟的一些其他国家在个人数据保护法中也陆续对“数据保护专员”作出相关规定,其中包括比利时、保加利亚、匈牙利、立陶宛、卢森堡、马耳他、波兰、瑞典、斯洛伐克等国。欧盟通用数据保护法规(下称“GDPR”)中对数据保护专员的要求是:具备专业的数据知识,尤其是对公民个人数据进行处理和保护的相关技术知识,同时数据保护专员还需要具备法律知识,能够对数据进行审核、归档以及根据数据做出报告。数据保护专员应当独立行使工作,数据收集机构的其他工作人员和管理人员不得干涉数据保护专员的工作。

数据保护专员的独立性可以使公民被采集的个人生物信息更加安全,但是数据保护专员的独立性也会导致一个新的问题,即道德风险。设想一下,如果数据保护专员未能守住道德底线,将自己管理、控制的大量人脸信息等个人生物信息用于实施非法活动,甚至是非法贩卖,那造成的后果将不堪设想。目前,欧洲一些国家的数据保护专员大体分为两类,一类是在企业内部员工中任命DPO,还有一类是企业选择将数据保护专员岗外包。不管是哪一类,数据保护专员的道德风险都是存在的,那么不妨将数据保护专员纳入职业许可的范畴,要求他们像律师、医生等职业一样通过规范化训练和考核后,持证上岗。鉴于个人生物信息的特殊性,还有学者提出在数据保护专员上岗时可以要求他们进行保密宣誓。

信息匿名化处理

欧盟GDPR中规定,个人信息必须进行假名化或者匿名化处理。信息匿名化处理,顾名思义就是使个人生物信息不再具有可识别性。2020年版《信息安全技术个人信息安全规范》中对匿名化的定义是通过技术处理,使得个人信息主体无法被识别或者关联,且处理后的信息也不能被复原。目前实践中对个人生物信息匿名化处理的手段有两种—直接移除识别符和假名化。个人生物信息不同于账号密码等其他个人信息,因其无法更改,所以信息采集主体在收集了公民个人生物信息后首先应当将信息进行匿名化处理,通过技术手段抹掉个人生物信息携带的识别性元素。信息匿名化处理是公民个人生物信息保护和信息利用两者之间进行平衡的一种措施,经过匿名化的个人信息就不再属于个人信息。

相对于人脸信息,指纹、虹膜、声音等个人生物信息匿名化处理在技术层面上更简单也更容易实现。人脸信息虽然具有直接可识别性,但是对人脸信息的匿名化处理并不是“空头支票”,目前技术层面上也可以实现对人脸信息的匿名化处理。对人脸信息进行匿名化处理的研究最早开始于2015年,最初是对人脸图像进行模糊化或者像素化处理,现在技术已经可以通过生成对抗网络将人脸信息匿名化。

明确个人生物信息保存期限

鉴于以人脸信息为代表的个人生物信息不同于一般的信息,个人生物信息的处理者应当明确告知信息被采集者个人生物信息的保存期限,这个期限不是任意的,而是生物信息处理者用于实现目的所需要的最短时间。美国华盛顿、德克萨斯州和伊利诺伊州的人脸识别规制法律中都明确了人脸信息的保存期限。因为个人生物信息主体在信息被采集后极有可能忘记或者怠于申请注销,那么就需要个人信息处理者明确个人生物信息的保存期限,在此期限内如果信息被采集者没有主动申请注销信息,待信息保存期满时或者是信息采集目的已达到时,信息处理者应当主动永久删除掉被采集者的个人生物信息。明确个人生物信息保存期限对个人生物信息处理者而言,是一项非常重要的义务。 

五、多层次监管体系的构建

实施行业许可制

目前市场上人脸识别技术的提供者资历参差不齐,市面上的主流公司有商汤科技、依图科技、北京旷视科技、云从科技、奥比中光、汉柏科技等,从表1可见,这些公司的注册时间基本都是在2010年以后,大多数还处在初创阶段。人脸识别技术的使用者也只需要购买厂家生产的系统设备,便可投入使用。整个人脸识别行业,以及其他的个人生物信息行业的准入门槛还是非常低的。

表1 国内计算机视觉人脸识别企业概况

据《人脸识别调研报告(2020)》,受访者最关心的是人脸信息采集者如何保障收集到的信息安全,人脸识别技术的提供机构是谁,以及被采集的人脸信息被应用在哪些场景中。鉴于国内人脸识别行业准入门槛低,公民人脸信息被泄露后维权难的现状,人脸识别领域亟待国家公权力介入进行规制。国家对个人生物信息处理的规制,首先必须从源头上提高行业准入门槛,实施行业许可制,改变人脸识别技术的滥用现状。要求个人生物信息的采集者、控制者和处理者均需先获得行业许可证,由国家相关部门颁发牌照后才可以从事个人生物信息的采集、储存、处理等活动。

公共主体与私营主体分类监管

将个人生物信息的采集、储存、处理、转运等活动纳入国家相关部门的监管范围,由国家的相关部门定期、系统地对从事该行业的企业进行审计和监管。2020年11月,杭州在《杭州市物业管理条例(修订草案)》中新增“物业服务人不得强制业主通过指纹、人脸识别等生物信息方式使用共用设施设备”,这是全国首个对人脸识别进行规制的地方立法。继杭州立法后,《天津市社会信用条例》于2020年12月1日表决通过,该条例的第十六条规定市场信用信息提供单位不得采集自然人的生物识别信息。2021年3月12日,深圳起草了《深圳经济特区公共安全视频图像信息系统管理条例(草案)》(下称《条例(草案)》),该《条例(草案)》中明确了敏感信息采集系统的安装范围与主体责任,并列举了禁止安装敏感信息采集系统的范围。上述地方性条例都是对某些重点领域的人脸识别进行专门规制,将人脸识别的应用主主体进行分类监管是未来的立法趋势。

2020年2月14日,美国加州通过了《加州人脸识别技术法案》(下称《法案》),《法案》中将人脸识别技术的使用主体分类为公共主体和私营主体。公共主体例如交管部门在公共道路上安装电子眼,其目的是用于交通管制和保护公共安全。私营主体例如新闻中曝光的科勒卫浴以及一些售楼处在营业大厅安装“智能”摄像头,其目的是为了对来访客户进行分类和分析。因对个人生物信息的使用目的不同,对这两类主体的监管力度自然也不可相同,公共主体应用敏感生物信息采集系统更多的是为了公共利益,而私营主体应用敏感生物信息采集系统往往是为了自己的利益。未来的监管重心应放到私营主体上,明确敏感信息采集系统的安装行业、安装门槛、安装范围以及主体责任。

健全问责制度

问责制度应当包括两个方面,第一是政府对企业的问责,第二是企业内部的问责。2020年我国个人信息保护法(草案)第六章规定国家网信部门负有对个人信息进行保护和监督的职责。国家网信部门要提高人脸识别行业准入门槛,定期对有资质的企业进行审计,加大企业的违法成本,一旦发现企业对采集的个人生物信息保管不善或者恶意泄露、贩卖等,应吊销企业的经营许可证,并把对个人生物信息处理不善的企业纳入行业黑名单。同时,企业内部也应当认真审核数据保护专员的资历,定期进行内部审计,将个人生物信息采集、储存、处理的各个环节公开化透明化,在企业内部设立数据监管机构,预防数据保护专员的道德风险,将具体责任分配到对个人生物信息进行采集、储存、处理等各个环节。

实施过错推定原则

据《人脸识别调研报告(2020)》,有30.86%的受访者已经因为自己的人脸信息泄露、滥用等遭受损失或隐私被侵犯。尽管如此,个人生物信息主体在司法实践中维权依然很困难。在深网视界和科勒卫浴事件中,由于侵权对象的规模很大,因此对侵权对象的救济也非常困难。

对于侵害个人生物信息的民事责任归责原则,欧盟GDPR中适用“过错推定原则”,要求生物信息控制者和处理者证明对引起损失的事件没有任何责任,方可以免除损害赔偿责任。我国现行法上依然适用的是“过错责任原则”。但是在人脸识别的滥用现状中,人脸生物信息的处理者与人脸信息的被采集者之间其实是处于一种不平等的关系,那么让生物信息主体来证明生物信息处理者的过错则显得不太合理,而且举证难度大。我国未来立法上对侵害个人生物信息的民事责任也应适用“过错推定原则”,让个人生物信息的采集者、控制者、处理者来证明对引起损失的事件没有任何责任,这将大大减轻生物信息主体的维权成本,有利于生物信息主体的维权。 

结语

人脸识别技术得到迅速推广,人脸识别技术在给我们日常生活带来方便的同时,其可能造成的个人生物信息泄露风险也是不容小觑。目前,人脸识别在国内的准入门槛低,不少营利性组织纷纷入局,造成人脸识别滥用的现状。人脸信息作为一种典型的个人生物信息,具有难更改性和损失的不可逆性,一旦泄露便是终身泄露,会给信息主体造成几乎无法挽救的伤害,因此对人脸识别中个人生物信息的处理进行法律规制已是刻不容缓。

从国家层面而言,一是要对个人生物信息进行专项立法;二是将个人生物信息作为敏感个人信息进行更严格的监管;三是明确监管机构,构建多层次监管体系;四是实施行业许可,健全问责机制,加大惩处力度。从企业层面而言,一是要充分贯彻落实“比例原则”“知情同意”原则、“最小权限原则”和“可注销原则”;二是将个人生物信息收集、存储、处理等各个环节公开化透明化,三是增设数据保护专员岗位,建立健全的数据信息保护系统,定期对个人生物信息进行审计;四是将采集到的个人生物信息进行匿名化处理;五是明确个人生物信息的保存期限,一旦到期,永久删除。

往期精彩回顾

乔芳娥|人工智能对民事主体地位的挑战与应对——以未来强人工智能的出现为视角

孙紫轩|智能算法在监察领域应用的可能与限度

郑天衣等|AI法治新生态:智慧审判发展路径的理论建构与改革探索——以类案智能推送实证考察为视角

黄宣植|政法智能化建设的实践问题与反思——以人工智能技术的应用为例

席斌 张志坚|欧洲机器人技术民事法律规则

李麒|人工智能伦理规范的初步探讨



上海市法学会官网

http://www.sls.org.cn


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存