查看原文
其他

张秀:智能传播视阈下伤害最小化伦理原则探讨——以智能人脸识别技术为例

张秀 数字法治 2022-12-01

点击蓝字

关注我们

张秀:华东政法大学马克思主义学院副教授


本文原载《传媒观察》2020年第2期,转载对注释与参考文献进行了省略。

摘要

人脸识别技术的迅速发展和广泛应用使网络公领域与私领域的界限不断被打破,个体权益的法律 保护备受挑战,智能技术的伦理问题不断凸显。媒介伦理中的伤害最小化原则强调,人脸识别技术应该在个人信 息、个体权利和个人自由等方面实现对个体权益的伤害最小化。只有将智能人脸识别技术对个人隐私权、财产权和 自由权的侵害降到最低,才能更好地发挥智能人脸识别技术对社会的积极作用。


关键词

人脸识别;智能传播;伦理原则;伤害最小化


人工智能技术通过文字、声音、图片、视频、链接向 大众传递信息,人脸识别技术是智能技术中应用较为 广泛的一项生物识别技术。地铁、车站、机场等公共场 所随处可见的人脸识别装置,将个人的私人生活与公 共生活紧密联结起来,提高了公共服务水平和管理效 率。同时,人脸识别技术也加剧了公共领域的公共性 和个人权益之间的张力。随着微软删除最大的公开人 脸识别数据库(MS Celeb),美国多个州对人脸识别技 术的立法禁止以及中国人脸识别第一案的出现,使人 脸识别技术涉及到的关于个体的隐私、选择、自由等传 播伦理问题备受关注。


一、智能人脸识别技术发展中的伦理难题

人脸识别技术是指给定一个场景的静态图像或动 态视频,利用存储有若干已知身份的人脸图像的数据 库验证和鉴别场景中单个或者多个人身份的一种生物 识别技术,又称为面像识别、人像识别、相貌识别等。这种生物识别技术是基于光学人脸图像的身份识别与 验证的简称。与指纹识别、视网膜识别、虹膜识别等技 术相比,人脸识别技术在数据采集方面更为简单,使用 直观,被认为具有弱的隐私性,易被使用者接受等特 点。基于这一优势,在人脸识别技术发展之初,媒体对 其以正面宣传为主,助推其在各个领域中的迅速普 及。然而,智能人脸识别技术作为一项新型生物识别 技术,其使用缺乏统一的行业标准和准入要求,技术伦 理也存在诸多伦理难题和法律争议。 


(一)智能人脸识别技术中伦理责任主体的确认问题

智能人脸识别技术遭遇的第一大伦理难题是技术中道德责任主体的确定问题。在人类技术的发展过程 中,一些学者主张技术价值中立论(value- neutral of technology),认为技术仅是一种手段,它本身并无善 恶。一切取决于人从中造出什么,它为什么目的而服 务于人,人将其置于什么条件之下。一些学者主张 技术价值负荷论(value load of technology),认为技术 从来不是中性的,而总是一种个性的投射。技术本身 暗含善恶的价值取向,涉及到主体的目的,被人的价值 投射的技术就有了善恶之分。 

人脸识别技术所产生的伦理责任问题应当追问技 术开发者、设计者、使用者、保管者、监督者等相关人员 的责任。智能人脸识别技术的产业链较长,既有上游 的人工智能芯片、核心算法和人脸数据集的设计者,也有中游的人脸识别、数据库比对解决方案的制造者,还有下游的安防、交通、零售等场景应用的使用者,技术与人的交互互动对确保个人信息的安全提出更高的伦 理要求,智能人脸识别技术应用的多环节、多产业链对 信息安全伦理责任主体的确认提出挑战。


(二)智能人脸识别技术中社会效用最大化的伦理适用问题 

智能人脸识别技术在当今社会的迅速发展得益于 技术本身的两个特点:一是智能人脸识别技术属于非 接触式生物技术,并发性能高,在一个场景下可同时进 行多个人脸的检测、定位、判断,成本低,采集设备使用 普通摄像头即可,所采集的信息可以使用互联网进行 异地认证,受到使用者的青睐;二是智能人脸识别技术 具有直观便捷、弱隐私、非侵扰、非接触等优势,具有很 强的隐蔽性,很多人之所以接受人脸识别技术在于认 为其可以提高识别准确率,节约时间,提升社会效用。 “最大多数人的最大幸福”是功利主义伦理学的基本原 则,也成为许多公共政策和功利论法学立法的基本原 则。智能人脸识别技术一直被宣传如果用于安防身份 验证,可以快速准确地确定嫌疑人身份,用于公共领域 可以提高社会公共事务的管理水平和工作效率,可以 提高商业领域的身份辨识等,但也有学者质疑此技术 是否能带来最大多数人的最大社会效用。如果以社会 效用最大化的功利主义伦理原则作为智能人脸识别技 术的伦理基本原则,那么如何证明智能人脸识别技术能 够实现社会效用最大化的结果就成为一个伦理难题。 


(三)智能人脸识别技术发展对个体权益造成伤害的伦理问题 

人脸识别技术基于人的脸部特征,对输入的人脸 图像进一步提取,分析每个人脸庞所蕴涵的身份特征, 并将其与已知的人脸进行对比来判定人脸的身份,为 用户提供更方便快捷的交互体验。人脸信息本身是外 露的信息,因此被认为是具有弱隐私性的个人信息,个 体隐私权侵害较小。人脸信息作为生物识别信息属于 个人信息的范畴,但人脸识别数据不是单一存在的数 据,与人脸信息绑定的个人信息越多,隐私的暴露可能 性就越大,对个体权利伤害的可能性也就越大。而且 人脸识别技术对个体权益的侵害不单是隐私权的侵 害,还涉及肖像权、财产权、自由权等多种个人权益。在伦理学中,伤害至少包含两种理解:一种是作为对利 益造成折损的非规范性的伤害概念;另一种则是作为 道德错误的规范性伤害概念。智能人脸识别技术对 现有法律规定的公民权益的侵害以及受宪法保护(但尚未制定具体适用的法律)的个体权益的伤害都应该 被认真对待。智能人脸识别技术的发展需要避免技术 对个体权益的伤害,这已成为智能人脸识别技术伦理 考量的基础性难题。


二、智能人脸识别应用中的伦理原则

智能人脸识别技术应用中的伦理原则能更好地推 动其向合理化、规范化发展。很多人认为,基于结果的 目的论伦理基本原则和基于个体权利不受侵犯的义务 论伦理原则是两种截然不同的伦理路径,主张不同的 伦理原则。而在智能技术发展的伦理思考中,我们的 关注点不仅聚焦于这两种伦理路径的区别,更在于这 两种伦理路径的结合,通过这种结合形成的共识性伦 理原则指引人脸识别技术的发展。这一共识性伦理原 则是“最大化最小化原则”,即社会效用的最大化和个 体权益伤害最小化的伦理原则。 


(一)智能人脸识别技术中的社会效用最大化原则 

社会效用最大化是以后果为导向功利主义理论的 核心伦理原则,也是指导智能技术发展的重要伦理原 则。在功利主义理论中,判断某一行动的对错应视其 是否符合效用最大化的原则。社会效用最大化的理论要求人们首先列出所有可供选择的行动方案,然后计 算每一行动可能的后果,对自己和行动中所涉及到的 其他人产生的正负效用进行评估,采纳正负效用比最 大的方案。如果智能人脸识别技术在同类型的技术方 案所呈现的社会效用优势,在社会效用评估上能够为 大多数人(或物)带来最大的好处,那么这一新兴社会 技术不但是正确的,而且值得发展和推广。功利主义 在追求功利最大化时,主要考虑的是社会效用总和的 功利最大化,并不是考虑单个人功利的最大化。在智 能人脸识别技术发展中,如果追求社会效用的最大化 需要以牺牲个体的权益(如隐私权、财产权、自由权等) 为代价,那么这种技术将成为“功利的怪物。”


(二)智能人脸识别技术中的权利伤害最小化原则 

功利主义代表人物密尔在《论自由》一书中提出, 坚守“社会效用最大化”功利原则的前提是对他人权利 的“伤害最小化”。他指出,一个行为的道德正当性并 不直接与功利相联系,处于实际的行为选择和功利目 的之间的准则对于实现整个社会的功利是极其重要 的,这一准则的底线就是不伤害他人的正当权利。伤 害最小化原则否定出于某一个体或群体 A的利益最大 化而强迫B做伤害自己的事情;同时如果伤害不可避 免,当伤害发生时尽可能的减少个体对自身或他人造 成伤害,使伤害最小化。智能人脸识别技术的发展运 行功利主义伦理原则时,不仅要实现社会效用的最大 化,还要实现个人权益伤害的最小化,这两个目标的统 一才是作为整体主义的功利主义伦理学的追求。 


(三)智能人脸识别技术发展中的最大最小化原则 

伤害最小化原则既是基于结果目的论伦理基本原 则,也是基于个体权利不受侵犯的义务论伦理要求而 总结的原则。当代义务论的重要代表人物罗尔斯在 《正义论》中就论证过“最大最小化原则”,这一原则由 “最大限度”与“最小限度”两个词组合而成。在极不确 定的制度选择和法律规制中,更好的伦理原则是最大 最小化原则,正如他在论证原初状态中的正义原则时 所强调的一样。“最大最小化原则告诉我们要按选择对 象可能产生的最坏结果来排列选择对象的次序,然后 我们将采用这样一个选择对象,它的最坏结果优于其 他对象的最坏结果。”⑥在智能人脸识别技术使用中,当 不了解智能人脸识别技术对社会整体效用能否实现社 会效用的最大化,也无法对可预期效用进行最大化的 选择时,“最大最小化原则”主张以保守的态度选择以 有利于最不利者地位的提高为基本的伦理选择原则, 使个体免受因某种偶然因素的侵害而处于最不利的情 况,从而保障个体权益伤害最小化。 


三、智能传播中人脸识别技术的伤害最小化应用

随着人脸识别技术在智媒传播中的广泛使用,其 对用户所造成的伤害将越来越隐蔽、越来越严重。但目前我国人脸识别技术的使用缺乏统一的行业标准和 准入要求,亦没有可直接适用的法律法规,倡导伤害最 小化的传播伦理原则,实现智能人脸识别技术对个人 隐私权、个人财产权、个体自由的伤害最小化,将有利 于克服人脸识别技术所可能造成的负面影响。 


(一)智能人脸识别技术对公民隐私权的伤害最小化 

人脸识别技术将人体面部的生物学因素纳入技术 发展中,人体生物信息是触发技术的关键。伴随着智 能传播,人脸信息(年龄、相貌、性别、肤色等)经由大数 据共享,包含个人特征的信息(如健康状况、收入水平、 家庭成员、财务状况、教育程度等)在网络中一览无 余。网络的开放性模糊了公共领域和私人领域的界 限,利用隐私权保护个人信息更加困难,对人脸信息的 收集、使用、存储、交易对个人隐私权造成极大的伤 害。因此,对智能人脸识别技术的规范使用需要明确 人脸信息的所有权、使用权、删除权、移转权、交易权、 限制处理权等多项权利的使用主体和使用界限,只有 完善个人信息的所有权和使用权才能在智能传播中降 低对公民隐私权的伤害。 

大数据可以从人脸信息分析到人的身份信息、生 活轨迹、财务状况以及更多隐私信息,这些隐私信息的 暴露就是对隐私权的侵害。人脸信息的人体生物特征 本身具有唯一性和复杂性特征,这种唯一性和复杂性 也决定了一旦泄露或被盗用,后果将难以挽回。因此, 公民隐私权伤害最小化原则不是原则性的技术伦理要 求,而是对人脸识别技术使用各环节所可能侵害隐私 权的个别衡量要求,在智能传播任何环节都减少和避 免技术对人的危害性后果。随着智能技术的不断优化 升级,同时在公民隐私权侵害最小化原则下同步升级 制度设计和法律规制,降低智能人脸识别技术对公民 个人隐私的伤害。 


(二)智能人脸识别技术对公民财产权的伤害最小化 

人脸特征属于个人信息的范畴,智能人脸识别对 个人权利的侵害与保护还涉及个人的肖像权和财产 权。人脸识别技术本质上是一种基于大规模人脸数据 分析的人工智能身份验证应用技术,人脸数据可被还 原成人脸图像,直接关涉到个体的肖像权。肖像权是 人格权的一种,是自然人对自己肖像拥有的使用权和 支配权,这种使用和支配包含了有权允许他人合法使 用且有权禁止他人非法使用。肖像权作为人格权具有 财产属性,在智能传播中,任意收集、使用、贩卖人脸数 据的行为将损害用户的肖像权及其财产权。

 美国学者劳伦斯·雷席格在 20 世纪 70 年代提出 数据是一种财产权,应该通过赋予数据以财产权的方 式来强化数据本身的经济驱动功能。因为数据具有 商业价值,任意采集可能会导致被任意使用,所以必 须明确数据财产权的归属问题。数据财产权属于用 户,这样才能保证肖像权与财产权主体的一致性。因 此,人脸数据的使用者对数据的收集、集合、加工、利用和买卖都必须征得用户的同意和授权,这样既保证 用户对数据使用的知情权,也能将数据隐私权保护落 到实处。

 

(三)智能人脸识别技术对公民自由权的伤害最小化

 虽然智能人脸识别技术采用超高精度的人脸识别 算法,使用大规模深度神经网络,三元损失函数以及定 制化的训练策略,大幅度地提升了人脸识别系统的性能,降低误报率,规避技术上的风险,但伦理上的风险 仍然很难解除,其中公民的信息自由权难以得到有效 保障。目前,部分人脸数据的采集和使用采取用户许 可、授权等方式,给予用户自由选择权,但更多领域中 人脸数据的存储、使用期限以及删除和防伪措施都没 有要求和监管,无法真正保障个人信息的安全和自 由。由此看来,如果缺乏明确的法律规制,人脸数据的 采集就容易越界,如果缺乏对人脸数据收集和处理的 监管,就会造成数据的滥用。 

对智能传播产业来说,初次收集人脸信息并非都 有明确的使用目的和范围,而数据产业的特性恰恰在 于对人脸信息的再处理和多次利用,因此,智能传播后 续加工和处理人脸信息时,更容易剥夺用户的人脸信 息自由支配权,必须立法确定人脸信息深度处理和应 用时必须保护用户信息自由权,这也是智能传播产业 持久发展的基石。 

总之,在智能人脸识别技术中,任何人脸数据企业 收集和使用用户人脸数据时,必须以一种法律责任明 确、可撤销的协议方式,与用户签订关于人脸信息收集 和使用的目的、时效、范围及救济方式的协议,确保用 户是人脸信息的权利主体。同时,要建立以政府为主 导的监管体制,在相关的法律规定中加强数据存储安 全和信息消除机制,明确可采集的应用场景、使用范 围、保管责任、违规处罚标准等,设置预警、终止等相应 程序,对信息泄露采取终身追责制,坚持伤害最小化伦 理原则,从而推动智能传播产业健康、有序的发展。


 相关阅读 ·


1.许可|数据权利:范式统合与规范分殊

2.谢登科:论初查中收集电子数据的证据能力

3.宫廷:跨境B2C数字化交易增值税课税的困境与出路——对OECD《国际增值税指南》政策建议的检思

4.程金华|滴滴下架背后的时代之问:数字时代个人信息保护的法律框架如何建构?


 商品书目 ·



微信号 : DigitalLaw_ECUPL

探寻数字法治逻辑

展望数字正义图景

数字法治战略合作伙伴:理财魔方

北京市竞天公诚律师事务所上海分所


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存