查看原文
其他

美国为何叫停在公共场所使用“人脸识别”技术[@裸嘢李 转]

图文源自网络 裸嘢李 2020-10-18

以下图文源自网络

源自法律园地

导读:人脸识别技术,在中国已开始广泛应用,但在美国却被叫停,为何?


    2019年,美国频频爆出对新技术应用收紧的消息。先是在波士顿附近的萨默维尔市,议会于当地时间(2019年)6月27日以11∶0的投票通过了禁止该市相关机构在公共场所使用面部识别技术,这是2019年5月旧金山出台法令禁止警察和其他政府机构使用人脸识别技术后,美国第二个禁止使用该技术的城市。


    人脸识别技术尚不完全成熟,如果在不成熟的时候被滥用,同时又缺乏监管将会造成很大的风险。


      2018年7月,美国公民自由联盟(ACLU)使用亚马逊的Rekognition人脸识别产品将美国的国会535名议员与25000张警方公开的罪犯面部照片进行匹配,该软件错误的将28名议员识别为罪犯,这事曾引发了巨大的争议。


  2018年6月福布斯网站对亚马逊面部识别产品“Rekognition”进行了一次测试,证明了任何人都可以使用极其廉价工具来追踪他人的行踪。


    美国不仅仅是旧金山和萨默维尔市,还有越来越多的城市考虑将禁止使用人脸识别技术。在欧洲,欧洲人工智能高级别专家组(HLEG)也在2019年7月发布报告,提议“欧洲应该禁止AI进行大规模监视和社会信用评分”。呼吁“政府应承诺只部署和采购值得信赖的人工智能系统,其设计宗旨是尊重法律和基本权利,符合伦理原则,社会技术健全。”


    美国为何要叫停人脸识别,主要是因为:


▌人脸识别技术,关乎伦理问题,而非基于钱


   “技术可以提高透明度、帮助警察保护社区,但绝不能放大歧视与种族不平等。”

IBM CEO 克里希纳(Arvind Krishna)向美国国会议员发出公开信,宣布不再提供通用人脸识别软件,提议制定负责任的技术政策;紧接着,亚马逊亦声明暂停向警方提供人脸识别技术一年时间;微软也表态停止向警方销售人脸识别软件,直到有相关国家法律出台。


    三家公司是美国科技业的代表,市值总计3万亿美元。年过百岁的IBM是最老牌的科技企业,微软则是全球最大的软件公司,而亚马逊旗下AWS是最大的云服务商,同样服务着数以百万计的政府机构和企业。三家此次决绝的态度,也让人工智能(AI)伦理争议再起。


    人脸识别是近年AI浪潮中的标志性技术,在特定领域远超人眼,被广泛应用于安防、金融等领域。


   但由于数据量不足、数据种类单一等,识别算法更容易在深色皮肤、儿童等人群中出错,被视为“算法歧视”。AI技术上难以排除小概率问题,使大型科技公司屡遭指责。


  AI系统的供应商和用户负有共同的责任,确保AI通过对偏见的测试。所以“暂停服务是个伦理上的决定,而非基于钱”。


    相比之下,中国的企业在应用优先的环境中,人脸识别等一众新技术仍在野蛮生长。“全靠企业自觉。”一家云服务商主管称,行业中还未有治理共识。中国的监管很强,但属于事后监管,所以在恶性事件曝光之前,用户的数据权利就看企业的道德水平。“争论哪里能做人脸识别没有意义了,因为已然遍地都是。”

▌人脸识别滥用的“恶意”

   

    很多人对人脸识别技术野蛮生长很不以为然,清华大学的劳东燕教授归纳了大概四种看法:


    其一,想太多,竟不能体味与感恩政府如家父般的保护善意。


    政府是由具体的人在运作,这就等于说,所有的个人数据,包括识别性极强的生物学数据,都是由群体中的少数人来掌控。这些人究竟掌控我们多少的个人信息,为什么要掌控我们的个人信息,掌控这些个人信息是要用来干什么,都是细思极恐的事。


   掌控数据的人显然不是上帝,他们有自己的私欲与弱点。所以,他们会如何使用我们的个人数据,会如何操控我们的生活,都不得而知。


   更不要说,这些数据因保管不善而被泄露或是被黑客侵入,导致为不法分子利用所可能产生的危害结果。


    其二,有人会说,只要不干坏事,便无需担心政府掌控你的个人数据。


   在一个正常社会中,个人理应拥有正当的权利,反对任何组织随意获取自己的个人生物学数据。法律之所以保护个人的隐私权与住宅自由,就是要让个人有自治的空间,这个空间不允许他人侵入。


     这里的他人,不单指其他的个人或是一般的组织,也包括政府,包括国家。倘若个人的生物学数据也能以安全为名未经同意而随意获取,则法律上对隐私权与住宅自由的保护,还有什么意义?

无隐私即无自由。


    其三,有人会提出,自己并非什么重要人物,别人想必也没有兴趣来了解我们的个人信息。


    当你把个人安全的问题,寄希望于别人的忽视时,基本上就活得如亡命的赌徒一般了。并且,你赌的不只是自己的运气,同时还在赌,掌控数据的人是天使一般的存在。非要一厢情愿地认为自己能赌赢的人,不仅是鸵鸟性格,窃以为大概还需要上交一些智商税。


    其四,还有人会辩解,这样的技术推广是有些问题,但反对也没什么用,就懒得花力气反对了。


    攸关自身重大权益的事项,如若我们自己不站出来反对,做出应有努力,自然更不可能指望别人出来帮着呼吁。在没有做起码的努力之前,怎么就知道反对无效呢?即便反对最终无效,也终归比驯服地给自己套上枷锁要强。至少我们曾经努力过,做过一些抗争。


   作为被侵害一方的我们,如果只是一味地默默地忍受,甚至不敢表明反对的立场,就等于是以不作为的方式,帮助对方来算计与加害自己。在这样的事情上,退一步并非海阔天空,而很可能从此坠入深渊。


    因为这根本不是靠一味忍让就能解决的问题。眼看着一步步地走向深渊,这样的遭遇,至少部分是我们自己一味地隐忍所酿成的。


▌侵犯个人信息,公权力比商业机构更危险


    商业机构以微利或是便捷安全之类的因素相引诱,让人们“自愿”地使用人脸识别,由于大多存在信息告知不充分的问题,很难成立有效的用户同意,故而其运用也难谓合法。


   不过,在一心谋求自身利益的同时,企业与相应的技术人员,难道就没有想过,这样的技术推广会给社会带来什么样的灾难吗?难道不知道自己有一天也可能成为被反噬的对象吗?


    不要扯什么技术中立之类的套话。当人脸识别技术被大肆用来获取普通公民的个人信息,并源源不断地汇集于庞大的组织之手。


    从事相应技术研究与推广的这些企业与技术人员,敢说自身就没有任何的责任吗?


    假如电幕的世界有一天真地降临,你们是当之无愧的功臣;但愿到彼时,还能有人身自由去畅饮庆功宴上的美酒。


    但是商业机构的滥用,至多不过是让人们损失一些钱财。真正令人担忧与恐惧的是,自己的信息被公权力部门所滥用;因为当他们滥用时,我完全不知道自己与家人会付出什么样的代价,财产、名誉、职业、自由、健康或是生命,一切皆有可能。


    人脸识别技术运用于日常安保,无差别地监控所有人的行动,以期对公共领域实现精确把控,从而达到理想化的安全状态。


   

    这种行为将每一个人变成维护安全的工具,却漠视人本身才是安全的目的。


    这和20世纪那些给人类带来整整一个世纪灾难的诸多行径别无二致,例如德国纳粹用科学手段测量劣等民族;苏联通过人兽杂交创造超级人猿战士;欧洲的“绝育法案”等等,都是试图用抽象、教条的科学方法论来管理、改造复杂、多变的人类社会,是对科学技术的滥用。


    哈耶克在《科学的反革命》中说,滥用科学“把一个个活生生的人描述成‘毫无生命的自由原子’,他们消解了伦理道德,他们追求价值中立,驱逐价值判断,最终把人类社会引向奴役之路。”


    可以说,人脸识别技术的运用,不仅是合法与否的问题,更是关乎人类自由命运的大事。


================

相关话题

清华法学教授:面对人脸识别门禁,我稍微挣扎了一下

源自法律经典

一场疫情复合高科技加持的新经济形态,让我们手持健康宝有序进出小区、商场和学校,心甘情愿交出一切隐私权限。有隐隐的担忧,但也说不清楚是什么。感谢劳东燕教授的清醒思考,帮助我们厘清日常生活中的秩序和边界。


受访人:劳东燕 清华大学法学院教授来源:南方都市报、麦读原标题:面对小区的人脸识别门禁,这位清华法学教授决定说不

一场疫情,从多个维度改变了社会生活。流行起来的,除了口罩、消毒药水,还有小区的人脸识别门禁。在很多地方,原有的指纹、门禁卡设备被取消,人脸识别成为居民出入小区的唯一验证方式。


今年上半年,清华大学法学院教授劳东燕也遇到类似的状况,但她决定对人脸识别说“不”。


作为一名法律学者,劳东燕发挥了自己的长项:她写了法律函,分别寄到物业公司和居委会。后来,街道方面邀请她谈话,在会谈中历数人脸识别的各种好处;她则列举了种种风险,认为在小区安装人脸识别装置并无必要,而且不经同意收集人脸数据,也违反现行的法律规定。


双方谁也没说服谁,最终街道方面同意安装设备后,让居民在三种方式中自行选择。不过,小区的门禁改造工作,不知何故被搁置下来。


在劳东燕看来,很多推动人脸识别落地的机构,可能并没有意识到随之而来的风险有多大。“如果人脸数据被泄露、被滥用,不仅不会改善社会治安,反而可能使相关的违法犯罪活动激增。”她说。


面对人脸识别门禁

她“稍微挣扎了一下”


9月23日下午,由中国政法大学公共决策研究中心和蓟门智库主办的“蓟门决策”专题研讨会在北京举行。研讨会的主题是《小区门禁能否人脸识别?——人体生物信息采集的滥用及其法律规则》。


作为主讲嘉宾,劳东燕分享了前面的“维权经历”。她回忆,与街道相关负责人谈话时,对方的主要论据是人脸识别可以排查违法犯罪人员,让小区更安全。


劳东燕对此难以认同。在她看来,人脸识别技术给社会带来的巨大风险,远远大于它带来的各种便利。更何况,打击犯罪只是社会治理的目标之一,无法构成强制居民刷脸的理由。


后来,小区的门禁改造工作没有继续进行。劳东燕不知道是她的反对起了作用,还是另有其他原因。“我也只是稍微挣扎了一下,”她话音未落,会议室里的人都笑起来。


劳东燕也笑。她解释道:“在这项技术得到公权力部门大力支持的情况下,个人想要为自己的权利做斗争,是要付出很大代价的。这种代价并非我们普通人所能承受,因为它会严重干扰原有的生活。”


论坛主持人、中国政法大学公共决策研究中心执行主任李轩在一旁补充道,“据我所知,很多小区都在挣扎”。


李轩所言非虚。今年4月,《光明日报》曾刊发评论文章,点评江苏省常州市部分社区强制居民“刷脸进小区”的争议事件。文章称,争议的导火线,或许正是对门禁系统的强制推行触碰了信息被采集者的敏感神经,而信息的不透明、不对称加剧了被采集者的安全焦虑。


劳东燕的主要研究领域是刑法学。这两年,有关人脸识别的争议性社会事件频频出现,让她关注到这一新技术应用中的风险与法律规制问题。去年,她撰写的一些分析人脸识别的法律文章,因为击中了很多人的心声在网上盛传。


“人脸数据一旦泄露,就是终身泄露”


近一年过去,隐忧仍在,而且变得更凸显了。在23日的论坛上,劳东燕详细谈了谈人脸识别推广适用过程中可能存在的风险,比如成为“透明人”、被操控的危险以及数据的泄露与滥用等等。


这些担心并非杞人忧天,现实中早有相应的案例。裁判文书网公开信息显示,从2018年7月开始,有犯罪分子通过非法购买公民个人信息并制作相应的“换脸”视频,突破了支付宝的人脸识别认证。2019年,又有“00后”男孩绕过了厦门银行App的人脸识别系统,使用虚假身份信息注册多个账户并倒卖牟利。


在劳东燕看来,以上事件不过是冰山一角。随着海量的人脸数据被收集,人脸数据或许会和电话号码、身份证号一样,成为违法犯罪分子所使用的新手段。


值得注意的是,生物特征识别信息无法更改的特性,将使得受害者更难获得有效救济。“人脸数据具有不可更换性,因为我们无法换脸。一旦泄露就是终身泄露,即便采取法律手段维权成功,也难以恢复原状。”她说。


让劳东燕忧虑的是,从民众到部分企业、管理者,似乎都还没有充分的风险意识。比如她的小区要安装人脸识别系统时,业主们在群里讨论。让大家反应最大的,不是刷脸,而是上传房产证信息的要求。“其实,人脸数据的收集所带来的风险,要比上传房产证大得多,二者根本不可比拟。”


如果说人脸识别的一端是一些民众对于便利的向往,那么另一端则是企业的变现冲动与政府的新型治理需求。


劳东燕认为,用人脸识别提升社会治安水平的初衷是好的,但人脸识别所涉及的,并不是个人隐私与公共安全的平衡问题——每个人就是“公共”的组成部分,人脸识别的推广运用,本身就会给公众的人身财产安全带来“无法估量的风险”。“其间的问题在于,我们可能既不再享有任何隐私,也因此丧失绝大部分的安全。”


“互联网的基本逻辑是,安全问题的解决并不取决于安保水平与能力最高的部门或企业,而是取决于其中水平最低与能力最差的。允许各式各样的组织与单位随意收集民众的人脸数据,就等于埋下一个个地雷,数据被泄露与滥用的可能性会急剧地提升,这势必严重危及公众的人身与财产安全。”劳东燕说。


与技术的快速发展相对的是,现有的法律保护框架,难以对人脸识别实现有效的规制。劳东燕认为,在各方的角力之下,企业和政府成了强势的两方,作为个人之集合的民众,则变成最为弱势的一方。


她解释道,目前的个人信息收集以同意机制为基础,如果作为数据主体的个人表示同意,接下来的数据收集、使用、处理就交给了企业和政府,数据主体难以进行后续的监督和控制。


“基本上征得同意之后,你的个人数据就跟你没有关系了,之后所有的风险都需要由你自己来承担。”她说,考虑到现实中,很多人都是在不知风险的情况下表示同意,或者由于必须使用相应App而不得不给予同意,以同意机制为基础的法律保护框架更是显得无力。


法律的滞后性总是存在。但在人脸识别领域,这一问题似乎更加突出。劳东燕用火箭来比喻人脸识别的发展态势,用马车来形容现阶段法律及监管政策对人脸识别的规制能力。“你用马车去追火箭,自然是追不上。”


学者建议引入公众监督机制和市场化手段


论坛与谈嘉宾、北京航空航天大学法学院教授王锴指出,人脸识别能达到识别目的,关键原因之一是有一个事先建立的人脸信息数据库,如果没有这个数据库,光凭技术也无法完成比对。“但是问题在于这个数据库不受我的控制。”


《网络安全法》明确规定,“网络产品、服务具有收集用户信息功能的,其提供者应当向用户明示并取得同意”。近年来,随着四部门App违法违规收集使用个人信息专项治理工作的推进,国内的App大都建立了要求用户授权同意的机制。只是时至今日,强制同意、默认同意等情况仍然存在,人脸识别领域就更是如此。


王锴表示,“同意”的基础是对风险有足够的了解,但是大部分民众对人脸识别的认知并不够。他认为,人脸数据库需要由一个统一的主体来建立,并且接受公众监督。“像企业这样各自去收集和建立,泄露风险很大。有必要引入公共机构或社会团体去监督。”


劳东燕则认为,法律保护的整体框架急需做出调整,不应以同意机制为基础。采用以同意机制为主的模式来保护个人信息,就等于是将数据的相应风险主要放在作为数据主体的个人身上。


在她看来,当前的主要问题在于,相应的风险是由实施收集、使用行为的数据控制者与处理者所制造,而因收集、使用个人数据的收益也主要由后者所享有。


“数据主体得到的便利跟企业和政府部门所获得的收益相比,根本微不足道,没有理由将相应的风险主要分配给数据主体来承担。”她同时认为,法律不仅需要规制数据控制者的非法收集行为,也必须规制对数据的滥用行为,可能后者才是法律真正应当规制的重心。


就此,论坛与谈嘉宾、对外经贸大学法学院副教授许可指出,目前数据滥用的问题之所以还没有得到充分规制,是因为政府很难直接干涉企业内部的经营业务。“政府部门缺乏技术、人力,当它试图提高个人信息保护水准的时候,自身的执法力量可能达不到。同时,干涉企业内部经营,在法律上也缺乏相应依据。”


许可说,除了依靠法律监管,也可以考虑使用社会的力量,通过树立行业标准、增强市场竞争,来达到“良币驱逐劣币”的效果。“既有的思路过于强调了对企业的问责,但实际上它并不能真正发挥预期作用。能否通过一些市场化、技术性的手段来提升个人信息保护的水准?我觉得这是未来的一个方向。”他说。


“我个人认为风险没评估清楚之前,应该立法先行,”论坛与谈嘉宾、中国政法大学法学院教授何兵说,“产业发展的最终目的,还是为了让人幸福、安宁、自在地生活。人活在这个世界上,不是作为经济动物而存在的,不能为了经济不惜一切代价。”

咨询法律或获取更多精彩请点击左下方“阅读原文”,或加微信54446700,注明读者。 #性事旦旦,#贼爱国,#涩狼起居注,#聊法 。

推荐阅读(点击下列文字即可打开链接):

绿茶、白茶、黄茶、青茶、红茶、黑茶的区别[@裸嘢李 转]

租个女友回家过年的法律问题[@裸嘢李 转]

没有最惨!一家汽车公司,让一堆对冲基金下跪,结果......[@裸嘢李 转]

出轨证据不要乱收集,只有这5种才有用![@裸嘢李 转]

铁路老油条告诉你另外的一个刘志军[@裸嘢李 转]

性是人类最深刻的欲望[@裸嘢李 转]

出轨后写的“保证书”是否有效?[@裸嘢李 转]

一个“中国式”大骗局的终结:冬虫夏草被食药监踢出保健圈![@裸嘢李 转]

公众号想法看法说法部分原创帖子合集

公众号裸嘢李部分原创帖子合集

最高法:被告不存在是否“适格”或“正确”问题,除非恶意滥诉法院不得裁定驳回原告起诉[@裸嘢李 转]

夫妻一方出轨,会“净身出户”吗?[@裸嘢李 转]

揭秘中国第一监狱:秦城监狱[@裸嘢李 转]

瑜伽——在淫乱世界登峰造极的印度人![@裸嘢李 转]

七位领导人长征别妻:建国后无一人与妻子团聚[@裸嘢李 转]

妻子为救入狱丈夫多次实施性贿赂,未获减刑便报警:本案如何评价[@裸嘢李 转]

碰瓷触及5大酷刑,严重可以枪毙![@裸嘢李 转]

江青与黄敬在青岛的青春岁月[@裸嘢李 转]

[广州证据李律师@裸嘢李]

长按以下二维码关注法律公众号

  

引用、推荐或转帖只为提供更多资讯

不代表本号同意其观点或证实其描述

@裸嘢李 邮箱:LEEZBoffice@hotmail.com


点击顶上方“裸嘢李”或“想法看法说法”订阅本公众号

请点右下的“在看”,帖子最下方可以“写留言

咨询法律或获取更多精彩请加微信54446700


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存