该内容已被发布者删除 该内容被自由微信恢复
文章于 2020年9月8日 被检测为删除。
查看原文
被用户删除
其他

人脸识别会宣告隐私权的死亡吗?

王俊秀 东亚评论 2020-09-08
编 辑 | 丝 绒
本文未标明图片均来源于网络
文中内容不代表东亚评论观点和立场




数字社会中的个人隐私


“智能社会”“智慧城市”已经成为当今世界最新潮的表述,也被认为是未来社会治理的新趋势。这些趋势表现为社会治理手段的智能化、数字化水平不断提高,网络通讯、大数据和人工智能技术的应用领域和场景不断扩展,逐渐深入寻常百姓生活,为人们的生活带来了快速的改善和极大的便利。


学者们开始讨论这样一种新的治理模式—数字治理(digital governance),这一产生于电子商务和电子政务之后的概念,被视为数字时代全新的、先进的治理模式。


这一以信息化、数字化、智能化为核心的数字治理过程已深入到公共生活的各个领域:打开购物网站,后台根据用户的搜索记录精准推送商品;注册电子会员,节假日都会收到祝福和问候。


但是,这种便利是以个人信息为代价的,电商、社交软件过度收集个人信息正成为新的社会问题。


在这种新情势下,隐私的内涵也被改造,何以重新界定隐私成为学界研究的重要范式,最近这一问题突出体现在围绕人脸识别与隐私保护冲突的一系列事件中。



“郭兵起诉杭州野生动物世界案”被称为“中国人脸识别第一案”,引起全社会的广泛关注。事情缘起于郭兵收到来自杭州野生动物世界发来的一条短信,“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园”,郭兵是2019年4月在该园录入指纹后办理的年卡。


郭兵认为面部特征等个人生物识别信息属于个人敏感信息,一旦泄露,容易被滥用,会危害到自己的人身和财产安全,郭兵不愿意接受人脸识别要求退卡退费,但遭到该园的拒绝。于是郭兵向杭州市富阳区人民法院提起了诉讼。

有人认为这一事件代表了中国用户数据隐私权意识的觉醒,这是由于以往商家和机构一贯大量收集用户信息而管理又不规范导致的必然结,认为这一案件与之前发生的一些公司将大量用户个人信息泄露和倒卖事件有着直接的关系。

据中央电视台报道,2019年11月19日江苏淮安警方侦破7家公司侵犯个人信息犯罪的特大案件,涉及非法侵占个人信息1亿多条,涉案的考拉征信服务有限公司和北京黑格公司的法定代表人、董事长、销售人员、技术人员等20余名涉案人员被抓获。

这样的案件呈高发态势,近期公安部针对此类案件进行整治,共立案涉嫌侵犯公民个人信息案件29起,抓获犯罪嫌疑人288人,缴获公民个人信息4.68亿余条,涉案金额达到9400余万元。

个人信息泄露已经成为现代网络社会每个人都有感受的事情,许多人都收到过电信诈骗电话或指名道姓的广告推销电话,这些亲身经历以及媒体非法使用个人信息案件的大量报道,使得人们使用个人信息的安全感下降,越来越多的人对此感到焦虑和担心

近期清华大学劳东燕教授的一篇微信公号文章“人脸识别技术运用中的法律隐忧”在朋友圈热传,作者撰写该文章的动因是北京地铁2号线阜成门站开始试点测试人脸识别安检。

作者在文中质问:

“进出大学校园要出示证件,邮寄东西要核查身份证,住个宾馆要人脸识别,坐地铁人物同检尚嫌不够,还要进一步运用所谓的新技术,来继续提升安保级别。我想问一句,还有完没完?

接下去,是不是要在所有的马路上,所有的公共场所,全面安装人脸识别的机器,以便随时将行人拦截下来盘问与搜身,将那些被认为危及安全的人进行拘押呢?”

劳东燕教授的发声,得到了在数字社会中个人隐私受到侵犯的民众的认同。

但也有人认为对人脸识别没必要“谈虎色变,他们认为人脸识别是人工智能浪潮中最具代表性的技术,在“数字中国”的发展中,人脸识别正在深度融入社会管理、公务服务、安全保障等领域,人脸识别的发展势头已不可阻挡。

只是太多的信息泄露案件不断放大着人们对人脸识别的恐惧。但技术本身是中立的,对于技术应用中出现的问题应该通过实践中不断完善制度来解决,这种声音代表了支持数字治理过程中人脸识别的典型立场。


商业管理和公共管理中人脸识别技术的应用确实有很大优势,因此这一技术在很短时间内快速增长。

咨询公司IHS Markit 2019年的报告称,2006年全球视频监控设备出货量大概是1千万套,到2016年已经增长到了1亿套,而到2019年将达到1亿8千万套。

在视频监控中云计算、视频分析和深度学习技术的运用成为发展趋势,2017年具有视频分析功能的摄像头的比例为23%,到2022年这一比例将达到45%。

“中国人脸识别第一案”最终的结果还未可知,但个人在面对杭州野生动物园所代表的组织性、强制性措施下往往只能退让。正是这样,一方面人脸识别技术不断被质疑,另一方面人脸识别技术不断被用于社会各个领域,深入人们生活的各个方面。


信息隐私化与隐私信息化


英国学者Patrick Dunleavy在“数字时代的治理理论”中指出,数字治理产生于新公共管理的式微和信息社会的发展,并从信息社会的特征、信息技术手段、数字治理的目标三个方面探讨数字治理问题。

但是,数字治理并不仅仅是管理和科学技术层面的问题,因信息时代数字治理一定程度是围绕着个人行为和伴生的个人信息展开的,个人信息和隐私就成为核心矛盾,因此,数字治理不仅涉及到伦理问题,还涉及到社会心理问题

数字治理与隐私冲突的核心问题是由个人信息的性质决定的,这里包含两个过程。

一方面,个人的隐私在信息时代的典型表现是信息,也就是存在一个隐私信息化的过程。

另一方面,随着时代的变迁,信息时代的隐私可能不同于传统社会,在信息的收集、储存、加工和使用中产生了性质的改变,一些原本不属于隐私的个人信息成为了隐私,还有一些传统上不属于隐私的信息在新的环境下成为隐私。

随着人们隐私观念的改变,一些信息是否为隐私也存在一个再认定的问题,传统隐私的边界需要重新进行厘定,这其中包含了个体主观的心理因素,这就是信息的隐私化过程

数字治理不能回避如何理解这两个过程的问题,要实现数字“善治”就必须在充分在这两个过程中重新界定隐私。


(一) 信息隐私化

隐私虽然是一个老生常谈的概念,但对于什么是隐私却存在很大争议,人们对于隐私的理解存在差异,这种差异源自不同的文化,也随时代而变化。

隐私是一个多学科研究的概念,哲学、法学、伦理学、社会学、社会心理学等学科都有关于隐私的论述和研究,但这些研究在隐私概念的界定上存在较大的差异,也使得研究结论差异巨大,甚至对立。

目前的隐私研究基本上是在法学范畴内讨论,并不在意对隐私概念的界定,而直接去讨论隐私权的问题,对隐私的讨论常常难以到位。

因此,隐私的概念非常重要,从隐私(privacy)的词源上看,英文中的privacy来自拉丁文privatus,具有“孤立”“受限制”“个人的”和“独特的”等含义。从这个意义上,个体有意避开公众查看,不使公众获得其不愿公开的信息都属于隐私。

就人脸识别来说,这项技术是基于摄影和录像技术的,摄影技术产生已经很久,录像技术也有着不短的历史,而人脸识别却是近年来才出现的新技术。

从技术上来说,人脸识别是利用分析比较的计算机技术来识别人脸,也就是让计算机认识人,人脸识别技术是基于人工智能技术对人脸这一生物特征的识别。

以往人的隐私是基于个人私密部位的,除极少数文化背景下,一般社会环境下的人脸都是公开示人的,本不属于隐私范畴,但人脸识别技术使得原本公开的信息成为隐私信息,也就是信息隐私化使得传统隐私的边界得以扩展。

国内媒体曾经报道,嘉兴市某学校的学生用一张打印的照片代替真人骗过了小区里的人脸识别丰巢智能柜,取出了家长们的快递货物。

美国《财富》杂志2019年12月12日报道,美国圣地亚哥的一家人工智能公司用高清3D面具和照片,在世界多地成功欺骗了人脸识别系统,其中包括中国的微信和支付宝,完成了购物支付程序。

这样,由于人脸识别技术的漏洞,个人人脸照片或视频就存在被非法利用的风险,信息隐私化的过程一方面重构了隐私,另一方面由于技术不完善,数字社会的个人隐私也存在被侵犯的风险。更为极端的恶意使用他人人脸信息的例子是“换脸”。

2017年,一位名叫“deepfakes”的外国网友利用人工智能技术,将电影《神奇女侠》《哈利·波特》中明星的脸“ 移花接木”到了不雅视频的女主角身上,一度掀起轩然大波。

为什么会出现信息的隐私化,这是由于数字社会信息具有了一定的商业价值,当“人脸”等原本社会公开的信息可用于流通牟利,隐私的范围也需重新考虑。


随着社会的变迁,人们对于隐私的理解也必须随之发生变化,同时,信息性质的变化也使得信息时代的隐私观念发生变化。许多学者认为“隐私是不受他人干扰的权利”,这种观点的影响很大,有众多的支持者,国内的学者也受到这种观点的影响。

但是,这样的隐私观念在数字社会已显得过于狭隘,无法有效保护个人隐私,如当被隐藏的高性能摄录设备拍摄和监视的时候,个体虽然很难察觉到,但并不表示此时他的隐私没有被侵犯。

另外,还有一种隐私观点强调个体在与他人交流时在时间上、方式上和程度上对自己信息控制的自主性,这种控制是隐私得以实现的关键。

正如万维网发明人伯纳斯所担心的,我们缺乏对个人数据的控制,一些互联网服务并未向我们收费,但当我们读过他们的政策细则,就会意识到我们实则在付费——不是用钱,而是用我们的个人信息。

也正是由于信息时代个人信息的公开可能产生个人无法控制的后果,才使得信息隐私化得以发生。人脸识别中个人肖像因为公开而使个体失去了对它的控制,信息可能被非法使用,个人信息安全和隐私就受到侵犯。

(二)隐私信息化

信息时代下人们日常行为越来越趋于数字化,每个人每天都会产生大量的信息,其中的许多信息是不便于向社会公开的,属于隐私信息,人们的这些隐私信息时时刻刻都在累积之中。

隐私信息化的过程包含很多类型,有的是新的科学和技术手段带来的,有的是由于个体的隐私风险意识不强,在无意间产生的,有的是在各种利益和动机下主动的隐私交换,也有的是信息监管不力所产生的。

大众风险意识不强是隐私信息化的重要原因,面对商家的“小恩小惠”许多人都没有防范意识,轻易选择了个人信息的奉送,如许多人在公共厕所使用人脸识别装置来得到一段卫生纸。也有一些人缺乏个人信息保护观念,使得不法商家和个人有机可乘,在法律监管缺位的情况下出现隐私信息化。

隐私信息化的途径很多,最常见的在于通过各类手机App采取“征询—同意”的模式,但这种“征询”往往是强制的,这使得原本不该产生的大量隐私信息被获取。

网络大数据时代商家认识到了数据的商业价值,利用各种途径获取个人信息,超使用范围获取个人隐私信息,一个简单的App就要开通20多项权限,几乎掌控了用户的手机与全部隐私。

比如,北京地铁2号线阜成门站开始试点人脸识别安检,需要乘客在现场扫描二维码下载“智慧安检”App,可直接带包进入安检门为了这一小的便利,乘客要同意北京地铁和亿通行的公司的众多条款,同意被它收集大量个人信息,而且,除了已经明示的信息之外,还有多处“不限于”,也就是信息收集成了“无限”的。


收集的个人信息包括:

(1)身份识别信息, 包括但不限于姓名、身份证明、联系地址、电话号码、生物特征信息;

(2)所处的地理位置及目的地信息;

(3)平台操作信息, 包括但不限于IP 地址、设备型号、设备标识符、操作系统版本信息;

(4)行程信息, 包括但不限于出发地、到达地、路线、途经地点及里程数信息;

(5)支付信息, 包括但不限于支付时间、支付金额、支付工具、银行账户及支付账户信息;

(6)个人信用信息, 包括但不限于任何信用状况、信用分、信用报告信息;

(7)其他根据具体产品及服务的需要而收集的的个人信息, 包括但不限于对产品或服务的意见、建议、曾经使用或经常使用的移动应用软件以及使用场景和使用习惯等信息。



经过记者实测发现,用户必须一揽子授权地理位置信息、支付信息、个人信用信息及应用使用习惯信息,才能使用“智慧安检服务”。


如果这样的安检全面实行,乘地铁出行的乘客将产生大量的隐私信息,而这众多与安检措施无关的信息将如何储存、处理和使用都未得到充分透明和公开。


隐私信息化和信息隐私化是难以截然分开的,当一些个人信息是孤立的状态可能不构成隐私,如一个人曾经出现在某位置的地理信息。但是,当一个人大量的公开信息被追踪和整合后,其性质已经发生了质的变化。


特别是在大数据、人工智能背景下,信息加工处理能力强、速度快,这种信息隐私化过程就成为个人隐私的最大威胁。因此,像北京地铁这样无界限全面收集个人信息,而在没有全面的防范措施下就试点实施,信息安全风险极大。



数字社会中如何保护隐私


数字社会必须处理好个人隐私保护的问题,这也是数字治理本身的内容。有学者从信息隐私权角度分析隐私的益处和坏处,在数据成为生产要素的今天,过度限制信息使用会影响人们通过信息分享造福社会的互联网精神,而个人信息被滥用、个人隐私被侵犯也会使得社会环境恶化,保持数字社会良性运行就要找到个人信息使用和隐私的边界。

无论面对的问题简单还是复杂,围绕着个人信息的数字治理不外乎是三个过程,一是信息的收集,二是信息的储存,三是信息的加工和处理,四是信息的使用,每一个过程都可能涉及到信息的隐私化和隐私的信息化,关系到是否侵犯个人隐私。

隐私信息化的过程相对简单,容易引起人们的注意,但信息隐私化因其过程复杂,信息处在动态过程不容易把握而经常被忽视,因此更应该重视。


数字社会下的个人信息保护是一个难题,全世界都在试图解决这一问题。2018年欧盟的《通用数据保护法案》(GDPR)开始实施,2019年11月,欧盟基本权利局又发布了《面部识别技术:执法中的基本权利考虑》报告,提出人脸识别技术应用前必须有清晰、详细的法律框架来监管人脸识别技术的部署和使用。

但是,由于人脸识别技术应用场景的多样性和复杂性,清晰、详细法律的制订是一件非常困难的事情,这一过程需要多学科、多领域学术性和应用性的深入研究和探索。

多年来欧盟以及其它一些发达国家一直在探索这个问题,欧盟2018年推出《通用数据保护法案》之前,早在1995年就出台了《数据保护指南》,2020年1月1日《加利福尼亚州消费者隐私法案》(CCPA)也开始生效了,因此,国内的相关法律也应该尽快出台。

但可以预料,即使是出台全面的数据保护法律,也不一定能够应对所有的现实问题,信息社会和智能社会下新的问题还会不断涌现,数据治理与隐私保护的矛盾将会长期存在,但不管问题如何改变,都应该遵循一些基本原则:

第一个原则是最低限度原则。任何组织和个人在面对个人信息时都要遵守这一原则,能不收集的信息就不收集,能少收集就少收集。

第二个原则是高门槛准入原则。对于涉及个人信息收集的业务开展必须有严格的准入制度,对于个人信息的储存、数据安全和业务必要性进行严格审核。

第三个原则是相关利益者知情原则。当事者要把收集个人信息的目的、信息收集的方法、信息储存、信息加工、信息使用的权限和边界,信息使用的时间,信息销毁等做明确的公示,确保利益相关者的知情权。

第四个原则是社会许可原则。涉及公共服务的项目要在社会成员广泛参与和讨论下,在民众充分知情和多数成员同意下才能实行。

第五个原则是事后补救原则。在信息收集、储存、处理和应用过程中对于可能的风险是否有补救措施,无补救措施则不可实行。

第六个原则是目的和结果一致性原则。个人信息的收集、使用的目的和结果必须一致,不能随意改变。

第七个原则是明确的责任承担原则。信息收集方要明确收集信息的储存、保护和使用的风险,明确这一过程要承担的全部责任,无法承担责任则不可以实施。

第八个原则是时限原则。对于所收集的信息严格设定使用和保存时限,在收集信息之前就要有信息销毁的约定。


当然,仅有这些原则是不够的,应该根据数据治理和隐私保护实践做必要的调整,应该通过法治化途径使一些原则程序化,形成可操作的严格的规程。

只有在重新认识数字社会隐私概念的基础上,通过建立产权清晰的制度框架,企业才能合法收集、利用数据,个人的信息保护诉求才具备治理基础。

当下要杜绝个人信息被滥用和个人信息的无界限收集,严格厘清信息使用和加工的边界,严禁针对个人信息的过度整合,营造良好的信息使用环境,提高民众隐私安全感,让社会大众可以放心使用信息资源,融入数字社会。




在未来的365天,东亚君将与各位朋友一起去分享110本曾在全球知识界产生过广泛影响、同时也曾给予我诸多刺激的名作。
希望能以此为各位读者带去新的冲击与启示。期待各位加入东评学社,我们不见不散!

长按识别二维码,加入「东评学社」



更多精彩




END

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存