查看原文
其他

汪伟|算法演绎下的数据隐私侵害及ESG防治——从TikTok数据隐私风波谈起

汪伟 上海市法学会 东方法学
2024-10-09

数据隐私是尊严隐私在网络空间的延伸与嬗变。TikTok数据隐私风波反映了数据隐私与算法机理之间存在巨大张力。在监控资本主义叙事下,算法实际上充当了代理者角色,并在数据隐私的全生命周期开展了算法监控、算法操纵和规训活动。我国对算法引发的数据隐私风险采取了以结果监管为导向的回应型规制。回应型规制既无法矫正抽象的算法侵害,又可能阻碍算法技术创新和数字经济发展。全球兴起的ESG治理为我国算法规制提供了一种全新视角。算法侵害数据隐私归属于ESG中的社会(S)议题,ESG治理算法侵害具有理论依托和实践可行性。通过调整算法规制思路、搭建ESG委员会、推进ESG信息披露,能够极大消解算法的负外部性,真正构建安全、负责任和可持续的算法社会。

一、问题的提出:从TikTok数据隐私风波谈起

算法技术和AI代理昭示着人类已由互联网时代跨入算法时代。但是,算法时代似乎出现了一类新的“社会契约”,即只要企业提供异质性的算法产品或服务,用户就会默认让渡数据隐私。这种以数据隐私换取免费产品或服务的权衡,其实体现了罗马法上最古老的互易(do ut des)原则。在互易之中,数据的隐私性和实用性是反向相关的。因此,用户必须要对“能隐之私”和务实之用作出取舍。作为理性的“经济人”,大多用户往往倾向于将数据隐私搁置一旁,以便换取即时利益或便利。可是,随着算法权力增强、算法伦理异化以及算法透明度降低,数据隐私俨然会脱离数据主体的控制,并渐次沦为算法决策下一种有利可图的创收商品。这不仅会侵蚀用户的自主性与人格尊严,稀释互联网经济赖以为继的用户信任。更有甚者,还可能影响社会稳定与国家总体安全。TikTok数据隐私风波便是典型例证。

2023年3月,美国众议院能源和商务委员会(ECC)专门针对数据隐私和算法安全问题,对字节跳动旗下的短视频软件TikTok举行了听证质询。听证会直指TikTok利用推荐算法增加用户浏览时长、鼓动有负面想法的青少年自残或自杀,因而提议对TikTok实施全面封禁。事实上,自2019年以来,TikTok就一直因为算法及数据隐私问题遭到美国的诘难、打压、遏制乃至禁令封锁。譬如,2019年,美国联邦贸易委员会(FTC)指控TikTok在未征得儿童父母同意的情况下违规收集儿童的个人数据,违反了《美国在线儿童隐私保护法案》,因此对TikTok处以570万美元的罚款。2020年,美国国会以“安全威胁”为由,将“禁止联邦雇员在政府设备上下载或使用TikTok”条款纳入了《国防授权法案》修正案。同年,时任美国总统的特朗普签署了行政命令,限制TikTok在美国境内的下载、更新与运营,并要求字节跳动出售或剥离中资股权。2021年,拜登总统又出台了一揽子措施来阻止TikTok对美国敏感数据的访问和收集。抛开政治因素,TikTok遭遇监管制裁的很大原因在于TikTok的场景挖掘数据和算法分发技术已成为重大的数据隐私风险来源,这可能对用户数字权利和数据保护规则构成挑战。

TikTok的数据隐私风波折射了算法侵害问题迫在眉睫,并且亟待法律加以规制。现阶段,我国对数据隐私的算法侵害采取的是回应型规制模式。然而,回应型规制的效果却是不尽人意的,甚至被学者诟病为“事故型问责”和“按需求监管”。一方面,回应型规制遵循的是实害救济的矫正主义逻辑,它仅着眼于监管者对算法主体的责任追究。另一方面,回应型规制只是法律对技术的制度性应对,它缺少了道德论证方案和价值分析框架。故此,回应型规制的转向势在必行。当前学界讨论出了四类替代方案,即赋权模式、预防模式、控制模式以及管制模式,但上述方案均有规制局限性。近年来国际上兴起的ESG(Environmental,Social and Governance,即环境、社会和治理)兴许能为我国提供不同于回应型规制的新思路。一方面,ESG中的环境、社会和治理三要素,与当代隐私理论中的环境(context)、人与空间、社会关系三要素形成了巧妙的契合,能够消除ESG机理与数据隐私治理无法兼容的疑虑。另一方面,ESG框架中的利益相关者理论、经济外部性理论、可持续发展理论和企业社会责任理论,能够为企业的技术向善、商业向善和资本向善提供坚实理据,指引企业的算法实践合乎代码规则、监管规定、市场规律和法律规范。鉴于此,本文试图借助ESG这一新理念和新方法,消减回应型规制的负外部性,强化企业的自律性约束和社会责任,并进一步保障公众的数据隐私不受算法侵害。

二、机理探微:算法侵害数据隐私的底层逻辑

在大数据和算法共同打造的科技乌托邦中,数据隐私逐渐脱离了人的控制,并作为一种新型生产要素进入机器的循环中。在隐秘监控、暗箱操纵和规训机制下,算法构筑了全新的控制范式和话语体系,数据隐私也随之面临保护困境。


(一)数据隐私的要义解构

数据隐私是数字经济和数智科技对传统隐私的实质性形塑。在这一概念中,数据代表了撬动数字经济发展的基础性战略资源,而隐私却关涉自然人的基本自由和尊严。然而,数据的经济属性和隐私的人格属性难以实现调和,理解数据隐私也因此变得更加困难。对于数据隐私的要义理解,并不能止于“数据”和“隐私”的机械叠加。首先,数据隐私是以数据为载体、以工具理性为运作逻辑,且有异于传统隐私范畴的信息概念。在数字经济视野下,数据隐私中的隐私语义、隐私利益和隐私功能不断弱化,其扩张性理念在某种程度上与我国司法实务所指向的狭义隐私相背离。

也就是说,数据隐私并非遵从尊严隐私(dignitary privacy)的规范逻辑,它寻求的是保障数据处理活动的准确性、透明性和工具理性,而不是防范有违文明规范的侵权活动造成人格损害。其次,数据隐私已经超越了个体权益的基础维度,进一步拓展至企业竞争和生产关系等更深层次维度。区别于私法上对于隐私的权利建构,以及教义学对于数据的本体探讨,数据隐私的关注重心落在了互联网商事场景中的数字竞争和数据垄断,乃至面向新劳资关系下的数据生产、数据劳动和数据剥削。例如,借助算法对数据隐私的挖掘,数据要素能够释放出更多的生产力,进而深刻改变市场化配置和人类生产生活方式。最后,数据隐私挣脱了传统隐私的私密性和私权化束缚,并且依托数据公共性、共享性和社会性特征,实现了数据隐私的非封闭性流动。在个人自治的隐私控制范式下,隐私构筑了社会运行发展的“数据堡垒”,而社会控制模式下的数据隐私能够助力数字产业发展。诚如美国学者所言,数据隐私事实上是一类公共产品。随着数据隐私的公共属性不断被揭示,数据隐私也能在“公域”中得到更多谦抑应用。


(二)算法侵害数据隐私的样态分析

1.数据隐私采集层:单向透明的监控范式




数据隐私的外部威胁离不开企业、政府等强大利益集团开展的算法采集实践。在数据隐私的生成阶段,数据隐私的获得方式既可能是数据主体主动提供的,也可能是算法程序被动挖掘的。其中,数据隐私的主动生成是数据主体直接向数据控制者或第三方提供身份资料、财务状况等个人信息,数据隐私的被动生成是企业通过算法追踪技术间接捕获、聚合、绘制个人的数据轨迹。在被动的采集阶段,数据挖掘算法会将个人的消费偏好、关系网络、GPS定位、医疗图谱等日常轨点汇集为一个巨大的个性化数据库。依托个性化的数据库,企业在无形之中搭建起了服务于实体利益的监控网络,而所有的数据隐私都能被企业准确收集以供日后使用。于是,个性化分析成了信息社会的“新宗教”,大数据量化成了信息社会的“大祭司”。诚然,从马克斯·韦伯的现代组织实践角度出发,个性化监控是朝着高效管理的方向发展的,对于资本主义活动和商业文明的发展大有裨益。但是,单向监控下的数据隐私采集通常是不为数据主体所知悉的,普通公众或许早已成为被数据化和符号化的透明个体。

相较于“授权同意”的主动数据隐私生成,被动的算法采集并不需要数据主体的自觉参与。在面对信息不对称、权力不均衡、话语不对等的企业算法时,数据主体既无从知晓何种数据隐私会被企业爬取,也无法获知数据隐私的使用流向,更不必奢谈对数据隐私进行自主性控制。可以说,在单向度、全景式的企业监控下,缺乏透明度的算法采集客观上造成了外部观察者的认知约束和监督缺失,加剧了数据隐私的采集隐忧与流转危机。即便企业监控在一定程度上能够反映安全、效率、健康等良善初衷或至少是中性意图,但监控所衍生出的数据隐私风险让许多学者都意识到,拥有免于监控的自由才是公众实现有效知情和数据隐私保护的根基。总而言之,算法之维下企业开展的连续、集中、广泛、常态化的单向度监控,包含了难以预知的数据抓取机理和形式隐蔽的数据采集手段,这让算法侵犯数据隐私有机可乘。

2.数据隐私应用层:权力渗透的算法操纵




数据聚合和算法挖掘共同催生了单向透明的监控范式,而监控容易产生隐形的权力布展。尽管从科学技术的工具论视角来看,算法本身并不负载价值且无涉于政治权力。但由于算法具有深度学习的机器优势、复杂生态的架构优势,以及社会控制的嵌入优势,算法权力已逐渐演变为事实上的技术权力、一种非制度化的权威,乃至社会建构的一股新兴力量。随着人类活动更多地转向了互联网,科技企业和数字平台也都纷纷强化了算法权力,并在权力渗透的算法运作中开展了一系列暗箱操作,致使公众的数据隐私在不同程度上遭到了算法侵蚀。这些算法操纵印证了英国社会学家拉什的早期预言,“在代码无处不在的数字时代,权力越来越存在于算法之中”。

从类型化的角度分析,算法操纵造成的侵害主要包括三种类型。一是算法标签侵害。为精准预判用户行为、最大化攫取商业利润,企业会利用大数据和算法模型对用户进行风险评估和分类,并为分群用户贴上“性少数者”“有色族裔”“犯罪分子”“抑郁患者”“宗教成员”等可辨识标签。当涉及数据隐私的算法标签与个人形成关联时,用户会在住房、求职、医保、贷款等活动中遭到恶意对待或声誉伤害。更有甚者,被冠以敏感标签的用户更容易遭到拦截、搜身和监视,还会被不公平地剥夺乘机和持枪权利。二是算法歧视侵害。“大数据杀熟”是算法歧视的最主要类型,即算法通过抓取和分析消费者的购买偏好、需求峰值、支付意愿和预期价格,智能生成用户画像并进行差异化定价。典型的例子就是会员购价高于非会员、多次浏览价格自动上涨、高端手机付费更高等。但个性化的算法定价并非直观和可验证的,这可能会降低消费者隐私保护的单边效应。三是算法推荐侵害。算法推荐其实是企业部署定制化服务的中立技术,但滥用算法追踪技术和分发技术的致隐性推荐,可能会入侵隐私、诱导沉迷并造成“信息茧房”。例如,快手、B站等短视频平台会根据用户的数据隐私开展精准匹配,而新形成的数据隐私会再次反哺平台算法。综上所述,算法操纵深嵌了“隐秘权力”,数据主体也会因此深陷“隐私泥沼”。

3.数据隐私控制层:去中心化的规训机制




算法权力的延伸诱发了去中心化的主体建构,“自然主体”被算法型构为“数字主体”。在算法社会中,算法是技术理性的象征,凭借日益积累的算法经验、数据资源和资本优势,企业不断对私主体开展算法规训,直至其成为“代码规则”的温良服从者。以滴滴平台派单为例,早期滴滴平台实行的是“你情我愿”的抢单模式,司机可以根据自身偏好、疲劳状况、路线距离、顺路程度、乘客信用等因素自主接单,但自主接单无法匹配人、路、车的供需情况并且效率会受到折损,因而滴滴平台改用了算法派单模式,即基于就近原则、全局最优、供给均衡等派单算法自动调配车辆的布局。虽然派单模式下的冲单奖励、高峰补贴能够撬动司机的积极性,但司机的自主性也会因为算法规训而显著降低。实际上,相较于算法的赋能与赋权而言,算法规训所产生的负外部性影响更甚。在算法规训下,无论是公民空间、隐私意识、抽象欲望,还是决策权力、行为自由都会受到约束和无形控制。在算法的控制范式下,去中心化的公众日益被算法征服。甚至从某种意义上来说,受算法驱动的公众是“被计算的个人”,受算法规训的公众是“被植入的自我”。故有学者指出,根据算法发展的可能趋势,算法规训或将彻底沦为算法对人类的控制,一个围绕算法权力的控制型社会也会随之形成。


(三)数据隐私的算法风险生成

在算法侵害数据隐私愈演愈烈之际,潜在的算法风险开始显现并与日俱增。通常来说,算法风险是算法主体在代码设计、决策运行、应用部署等环节中,因样本偏差、训练不足、程序错误而导致的算法失灵和风险外溢。其中,外部的算法风险是算法决策对私主体造成的具体侵权损害,而内部的算法风险是算法技术对不特定公众群体造成的长期累积且难以验证的抽象损害。对于个案轻微、影响广泛,但难以落入法律规制的内部算法风险,也即算法本身所蕴含的风险,有必要进一步进行揭示和考察。

首先,始于技术端口的算法隐含了数据隐私风险。从直观和务实的角度出发,算法是一个可以定义的递归、部分有序的域集,以及具有确定性的有效映射。在有限规则和有界假设下,算法只需机械地遵循指令就能解决特定类型的问题。然而,算法工程师的开发实践与数据隐私保护之间存在严重的脱节。以需求分析、架构设计、数据建模为专攻的算法工程师难以跳脱出技术开发思维,无法真正面向数据隐私合规的法律领域。而开发者的技术能力与法律知识不匹配,也会直接造成“法言法语”与机器语言难以实现有效衔接。在隐私设计中,虽然未成年人、数据来源、跨境传输等具象概念能被转化为机器语言,但算法却无法准确理解和执行数据主体的同意、目的合法性、使用限制等抽象概念。这就使得开发人员仅能在技术上遵从“形式合规”,并经常陷入规则翻译的泥沼。而过于简单的规则转化与算法设计所要求的数据隐私合规要求相去甚远。不仅如此,违背数据最小化原则的隐私设计、与动态法律规范不一致的技术硬编码,以及沉重的技术开发成本,也都会导致数据隐私的算法风险产生。

其次,贯穿资本逻辑的算法暗藏了数据隐私风险。在全球自由市场日益壮大的时代,科技行业受到的监管约束远不及科技企业的规模增幅,监管乏力的算法科技和持续扩张的技术资本又将经济发展模式推向了监控资本主义。在监控资本主义下,数据隐私成了算法牟利的原料,财富聚敛和权力占有成了股东的愿景,科技企业成了按照愿景行事的实体主导,而一无所知或漠不关心的公众则成为被算法量化、预测和修正的对象。对于监控资本主义下的资本家而言,算法活动背后的金融动机是让整个世界都变得机器可读,而公众的数据隐私只是累积的监控资产以及能够增殖的数据资本。为了能够源源不断地从公民的数据隐私中榨取盈余价值,监控资本家会利用监管和公民认知的滞后性,将算法对数据隐私的侵害渲染为即时需求的供给、个性化的服务定制以及异质性偏好的满足。经过美化的算法似乎不再是对数据隐私的侵蚀,而是对数据隐私的重新配置。当越来越多的数据隐私集中到少数监控资本家的手中,缺乏数据资本的公民就只能在算法的支配下走向赤裸状态。

最后,背离人性尊严的算法充溢了数据隐私风险。在算法社会中,只有人的智性获得了单向度的发展,而人性中更为宝贵和自然的心性与灵性正在丧失。不可否认,智能算法凭借强大的逻辑推理、深度学习、分析计算等智性技能,解放了人类双手,释放了数字生产力。但算法在运作过程中渗透出显著的工具主义倾向、排除异己的数据专断,以及技术主宰人类的傲慢与偏见,背离了人性尊严的价值依归,并折射出与人对立的邪恶。一方面,以效益最大化为导向的算法运作涉嫌将人进行物化和数据化处理,违背了人不得被当作客体对待的实践准则,忽视了人是目的这一永恒命题。一旦人的主体性地位被算法动摇,附属于主体的数据隐私也会随之消解。另一方面,以“超级推理”和“绝对真理”自居的算法实践,悄然塑造了公众对于算法结果的深度依赖,极大削弱了公众的自决意识和隐私意识。在算法运作的隐喻空间中,数据就等同于真理,数据隐私就等同于更加精妙的真理,一旦人的自我省思、自我判断和自我支配出现在算法的输入和输出之间,便会影响算法“理性模式”的终极表达。于是,人就只能作为数字化的表征参与到算法的运作当中,或是被迫成为“隐私犬儒”被算法所统治。

三、外部证成:ESG治理算法侵害的现实可能

承前所述,数据隐私的算法侵害愈加严重,然而回应型规制并不足以全面防范算法风险。当前学界提出的赋权模式、预防模式、控制模式以及管制模式也存在诸多缺失,难以满足算法规制需求。赋权模式主张通过创制更正权、被遗忘权、可携带权等数据权利对抗算法侵害,但赋权模式忽视了数据权利的行使存在信息鸿沟和技术壁垒,同时也无法对抽象性和群体性的算法侵害给予救济。预防模式强调从数据源头出发,防范算法活动对数据主体造成不可逆转的负面效应,但预防模式本质主义色彩过于浓厚、成本收益不对称,并且存在侵犯知识产权之嫌,其益处难以兑现。控制模式虽主张平衡算法的技术创新和风险,但侧重于公法思维的控制模式,并未跳脱出回应型规制模式的责任认定与责任分配思路。管制模式是压制型法在算法场景中的具体展现,对算法实施管制有利于维护法律所预设的技术轨范和数字秩序,但管制模式会否定算法的社会建构价值、扼杀算法的技术创新,并且存在侵犯私权的现实危险。为此,笔者将从理论基础、现实需求、应用实例三个层面证成ESG治理算法侵害具有可行性。


(一)ESG治理算法的理论依托

作为经济高质量发展的重要抓手和责任投资的风向标,ESG能够从环境(E)、社会(S)和治理(G)三个非财务性维度,指引企业的算法活动创造可持续的社会价值。虽然经过分解,ESG的核心指标数量可能少则12个,多则1000个。但是根据主流的ESG评价体系,算法活动所衍生出的金融安全、数据隐私、产品责任、用户权益等问题应当归属于社会(S)议题的范畴。相较于环境议题和治理议题,社会议题显然更难被量化,尤其对于隐蔽程度更深、可解释性更复杂的算法侵害来说,准确测量没有“单位”、标准化不足的社会因素颇具难度。因此,不乏投资者认为ESG中的社会议题只是流于形式、难以嵌入投资决策的模糊标准,而环境议题和治理议题才是评价企业绩效和治理水平的重大性标准。事实上,“地球不一定比人更重要,只是碳更容易量化”。社会议题作为ESG总体框架的重要组成部分,并不只是依赖于各种数据指标的精确测度,而是具有法学、经济学、社会学、企业伦理学等学科依托及理论支撑。数据隐私的算法侵害作为社会议题的重要问题,能够借助利益相关者理论、经济外部性理论、企业社会责任理论以及可持续发展理论实现ESG的良善治理。

首先,利益相关者理论是ESG治理算法侵害的正当理据。早期的利益相关者被学界狭义地界定为能够支撑企业继续生存的利益团体或个人,如股东、供应商、金融机构,但是,仅从“能否支撑企业生存”的角度判断某一群体是否为利益相关者具有很大的局限性。因此,弗里曼从广义角度提出,利益相关者应当包括能够影响企业目的实现或者受企业目的实现所影响的所有群体或个人,如客户、商业对手、贸易协会和公益团体。

按照弗里曼提出的广义定义,算法企业并不能将“股东至上”视为根本遵循,毫无底线地利用算法技术追求股东财富最大化,从而忽视用户群体的数据隐私问题,或是对算法攸关方造成其他侵害。在广义定义的基础上,利益相关者能够根据不同标准进行多维细分。4例如,根据企业是否与算法受体签订合同,将利益相关者划分为契约型和公众型;根据算法利害关系程度,将利益相关者划分为战略型和道德型;根据风险承担方式,将利益相关者划分为自愿型和非自愿型;或者根据算法群体的属性,将利益相关者划分为潜在型、预期型和确定型。这些多维的利益相关者类型,使那些受算法滋扰的公众型群体、道德型群体、非自愿型群体乃至潜在型群体,即便不享有剩余索取权和控制权也能“参与”到企业的战略决策之中。企业治理观念由单边的股东利益至上转向全体利益相关者的利益互补共生,极大地奠定了ESG治理算法侵害的理念基础。

其次,经济外部性理论是ESG治理算法侵害的实践基础。英国古典经济学家庇古认为经济外部性是经济主体在从事社会经济活动中对他人或社会产生的一种非市场化影响。一旦经济主体为消极影响所支付的补偿不能折抵危害时,即边际私人成本小于边际社会成本,就会产生负外部性。以保险行业的平台算法为例,当互联网保险公司利用算法引擎自动获取到平台用户的基因信息、历史病情、用药状况、门诊记录等个人数据隐私,便会对高风险的投保人提高保费金额、施加不公平条款,以及排除特定权利,而保险公司通过算法将风险成本转嫁至无辜的投保人正是经济负外部性的体现。为了将外部成本内部化,庇古主张政府对微观经济主体进行调控,但科斯却认为,行政干预可能只是一种低效、高成本的制度安排,外部性问题完全可以通过明晰产权以及协商谈判的方式解决。前者如国家网信办等四部门联合发布2022年《互联网信息服务算法推荐管理规定》,对算法技术的溢出危害进行监督管理、风险控制和问责治理;后者如企业通过“告知—同意”的用户协议,明确数据主体的个人信息、数据隐私以及算法活动的范围及限度。经济外部性理论在很大程度上促使资源配置实现帕累托最优,为ESG治理算法提供了实践支撑。

再次,企业社会责任理论为ESG治理算法侵害提供了方法指导。企业社会责任发端于20世纪初的美国,其原指企业在利润最大化目标之外所负义务的概括或表达,近年来已演变为与“企业责任”等同的泛概念。根据美国经济发展委员(cED)提出的同心圆模型,企业社会责任的内圈代表了最基本的经济职责,中圈代表了企业在商业上需要履行的社会责任,而外圈代表了能够促进社会进步的无形责任。具体到算法领域,企业不仅需要承担刺激算法经济增长的内圈责任,还要承担用户数据隐私保护的中圈责任,以及算法包容、算法低碳、算法公正的外圈责任。另外,根据卡罗尔提出的金字塔模型,企业社会责任的“金字塔”依次由经济责任、法律责任、道德责任和慈善责任构成。其中,经济责任能够确保企业在提供算法产品和服务的同时获得可期利润,为其他责任的实现创造激励因素。法律责任作为一种“法典化的道德”和自由企业制度的前提,要求企业的算法实践在法律框架内履行经济使命。道德责任作为算法社会的“共同善”基础,要求算法克服技术偏私和价值偏见,推进算法透明并促成道德算法。慈善责任则鼓励企业利用算法技术弥合数字鸿沟,保障数字弱势群体权益。总之,内涵隽永的企业社会责任理论调和了企业私益和社会公益之间的张力,为ESG治理算法提供了实用、至善的方法指导。

最后,可持续发展理论为ESG治理算法侵害提供了方向指引。可持续发展是以包容、联系、平等、审慎和安全的方式实现人类发展的过程。

在工业革命时期,急剧膨胀的经济需求和不加节制的资源开发对环境和社会造成了巨大冲击。欧美学者通过发布《增长的极限》(Limits to Growth)等论著警醒人们关注人类中心主义下的生态危机,并孕育出了最早的可持续发展理念。随后布伦兰特委员会(Brundtl and Commission)又发布了《我们共同的未来》(Our Common Future),真正提出了可持续发展的概念及其基本要义。根据布伦兰特报告,可持续发展不仅需要满足人类的基本需要和对美好生活的向往,还要求经济的增长必须确保机会公平且不得对他人进行剥削。进入算法时代,可持续发展理论要求企业利用算法生产力激活数据要素的潜能,将人类从低效的机械劳动中解放出来,同时要求算法技术坚持科技向善和人本理念,不得通过“数字奴役”形成算法剥夺、监视资本和垄断控制。这意味着可持续发展理论指导下的算法实践必须具有服务于经济增长和社会生产力提升的硬实力,同时也要具备调适劳资关系、保障数字人权和隐私安全的软支撑,这为ESG治理算法侵害提供了前瞻指引。


(二)ESG治理算法的实践需求

算法作为一种技术人工物,不免会出现轻微的“功能偶发性失常”现象,但这种功能失常很多时候并不是算法本身的功能损害,而是实现功能的结构出现了问题。换言之,较之算法的技术性问题,算法背后的人类恶意更值得担忧和警惕。因为算法并不是游离于人类社会的技术存在,而是承载了人类的价值判断和目的倾向,在事实上充当着人类的代理者角色。在这种新型的委托代理关系下,算法催生的算法责任除了是代理偏差的机器责任,更是人类社会责任的延伸和拓展。而人类社会责任在算法领域的投射意味着算法活动必须要全面考虑股东、消费者、社区等利益相关方的诉求,不断消解算法的负外部性,最大限度增进社会福祉,推进算法生态的可持续发展,由此,算法活动对ESG的治理需求应运而生。

具体而言,ESG对算法的治理主要是回应算法的非功能性需求。在算法系统中,需求通常可以分为功能性需求和非功能性需求,功能性需求描述了系统应当执行的技术任务,非功能性需求是对系统执行质量的某种约束。典型的非功能性需求包括隐私合规、数据保护、容错能力、安全性、稳定性、互通性、可移植性。对于算法企业而言,非功能性需求日益成为ESG治理的重心。一方面,越来越多的证据表明算法的非功能性需求可能直接或间接地影响企业竞争。以非功能性需求中的数据隐私为例,科尼兹等学者建立了消费者重复购买模型,发现如果消费者能够自由地选择匿名,就不会被算法识别为老客户而遭到价格歧视,此时企业的利润也会最高。因为强有力的数据隐私管理能为消费者提供积极的品牌体验,从而带来了竞争优势。若将数据隐私措施视为成本或约束,则可能会错失竞争良机,因为当企业未能促进信息交换中的平等感时,消费者会对权力失衡做出负面反应。另一方面,算法的非功能性需求与ESG之间存在天然的契合。算法的非功能性需求不仅是对于技术开发的约束,而且反映了企业的道德价值、治理水平和社会责任,这与ESG的内在机理和治理要求相一致,也让ESG治理算法侵害成为一种现实可能。

事实上,ESG之所以能够保障算法的非功能性需求实现,不外乎ESG治理具备三点优势。其一,政策优势。近年来我国高度重视ESG战略的推行和部署,如2022年国务院国资委社会责任局指导发布了《中央企业上市公司环境、社会及治理(ESG)蓝皮书》,深化了ESG治理的理论探索和实践认识,增强了中国ESG体系的话语权和价值认同。此外,ESG涵盖的反歧视、商业道德、数据隐私、信息安全等诸多指标与我国新发展理念高度契合,因此ESG能够作为贯彻新发展理念的重要抓手,指引算法活动走向可持续发展。其二,回报优势。ESG越来越成为一种投资风向标,将ESG有效整合到算法运作中的企业通常会产生更高的回报。根据2019年麦肯锡报告,ESG已被证实能够促进企业的利润增长,降低运营成本,最大限度地减少制裁、罚款等监管风险和法律干预。投资者也意识到,ESG框架下的算法治理能够反映企业的社会责任、道德价值观和非金融风险,关注ESG的算法企业才能获得具有竞争力的长期财务回报,反之则容易引发财务风险。脸书公司就曾因为不重视算法的ESG治理,向剑桥分析公司泄露了8700万用户的数据隐私,由此导致政治广告被大量精准投放,最终被罚款50亿美元。其三,实施优势。ESG涵盖了数据隐私等诸多议题,借助ESG信息披露,企业能在最大程度保有算法治理的灵活度,同时监管者也能适应和摸索ESG的制度发展。此外,彭博社、道琼斯、汤森路透等国际机构,以及嘉实、华证、商道融绿等国内机构也都纷纷加快了ESG的评级实践,数据隐私、算法安全、商业道德等ESG指标因此具有了明确的衡量标准和评估依据。


(三)ESG治理算法的典型例证

ESG治理已成为一种流行实践。在ESG文本层面,各方主体都在关注数据隐私风险。例如,欧盟在2019年《可信人工智能的伦理准则》(Ethics Guidelines for Trust worthy AI)中明确提出,实现可信人工智能的七个关键要素包括技术稳健与安全、数据隐私管理、多样性和非歧视、透明度、社会和环境福祉、问责制、能动监督。该准则为算法治理提供了标准框架,同时也落实了ESG的数据隐私要求。同年,我国国家新一代人工智能治理专业委员会发布了《发展负责任的人工智能:新一代人工智能治理原则》,并从长远治理及前瞻性部署的角度提出了人工智能的可持续发展必须遵循安全可控、尊重隐私、共担责任、敏捷治理等原则。该报告以增进人类福祉为目标、倡导消除数字鸿沟和算法偏见、高度关注系统安全和个人隐私,充分反映了ESG治理的数据隐私要义。2021年全球报告倡议组织(Global Reporting Initiative,GRI)更新了《GRI标准》,并单独将消费者和B2B客户的数据隐私纳入了GRI议题标准。作为全球应用最为广泛的可持续发展报告,《GRI标准》要求企业合法收集数据、保持数据透明,并对涉及隐私侵犯的事实进行披露,充分遵从了ESG关于数据隐私的披露指引。除此以外,港交所的《ESG报告指引》、国际标准化组织的《社会责任指南》(ISO26000)、中国企业改革与发展研究会的《企业ESG披露指南》(T/CERDS2-2022)也都涵盖了数据隐私保护的重要内容。

在ESG实践层面,越来越多的企业将数据隐私嵌入了企业发展战略当中。譬如,腾讯公司将“默认保护隐私”和“隐私保护融入设计”落实至产品的开发和运营之中,积极回应了ESG的数据隐私议题;海尔智家搭建了ESG管治架构,并围绕“管理、防护、认证与审计”开展了数据隐私保护工作,增强了ESG的合规表现;百度公司依托隐私合规检测、差分隐私、AI自动脱敏、联邦计算等技术提升了数据隐私的防护水平,践行了ESG的发展理念。下面以国际出行巨头优步(Uber)为例,对ESG实践具体展开分析。根据优步2021—2022年ESG报告,优步在法律和道德上全面构建了用户数据隐私的合规机制。首先,在隐私设计方面,优步在应用程序中新增了隐私中心,用户可以清楚地知晓自己的数据是如何流转和利用的,并且能够查看信用信息、修改隐私设置、拷贝数据副本、管理广告配置以及行使数据权利。其次,在隐私管理方面,优步承诺不泄漏应用内的聊天通话、行程结束后删除用户资料、对特定地址和接送信息进行模糊处理,并且不依赖生物特征信息对用户是否佩戴口罩进行检测。再次,在数据安

全方面,优步通过了独立第三方审计的SOC2认证以及NIST800-171的商业评估,成为美国政府服务的供应商,并且持续开展内部审计和评估活动,由首席信息安全官(CISO)和首席隐私官(CPO)为公司的隐私和网络安全运营提供跨职能的监督与报告。最后,在辅助执法方面,优步组建了全球公共安全的联络团队和专用门户,执法人员和公共安全官员可以就刑事案件、财务欺诈、人员失踪、传染病接触等事项,向该团队请求特定范围的重要数据,但不符合法律程序、合法性未经验证、过于模糊或不适当的执法请求都会遭到拒绝。总之,ESG治理坚持数字经济调节与数据隐私保护并重,是应对数据隐私风险的重要工具。

四、范式重塑:ESG治理算法侵害的路径展开

在区块链、Web3、元宇宙等算法场景当中,算法操纵、隐私丢失、网络入侵等威胁频繁发生,这意味着企业开展ESG治理已经刻不容缓。具体的ESG治理要从三个方面推进:一是要在治理观念上遵从ESG理念;二是要在治理架构上搭建ESG委员会;三是要在治理举措上实施ESG信息披露。有效落实ESG治理将为算法社会的数据隐私构筑安全屏障。


(一)算法规制思路:坚持ESG理念先行

算法规制要改变事后监管的回应型规制思路,树立事前治理的ESG理念。我国在市场治理中长期奉行以行政处罚为手段的事后监管模式,并将“政府承揽”的监管思路沿用至算法治理当中。然而,事后的回应型规制思路既无益于解决新兴的算法问题,还有可能导致市场压抑、路径依赖、权力寻租等问题。而ESG理念中的事前治理越来越成为一种共识。算法规制要由“截断行为后果”前移为“塑造行为逻辑”,由事后处置转向先

行介入。例如,欧盟在2022年发布的《数字市场法》(Digital Markets Act)中引入了守门人制度,要求具有强大算法系统和数据驱动优势的大型在线平台充分发挥守门人角色。这实际上就是在立法层面确立了数字市场的事前监管制度,并且改变了数字治理中过度依赖事后执法的传统思维。此外,全球范围内广泛开展的“隐私设计”也反映了事前治理正成为ESG的治理趋向。“隐私设计”其实是在系统设计的最初阶段将数据隐私的合规要求嵌入程式当中,从而在源头上避免算法风险的产生,而不是从风险链条的末端对算法风险进行回应。换言之,“隐私设计”理念的核心在于事前将隐私保护“嵌入其中”,而不能事后简单地“附加其上”。总之,ESG规制意在从算法风险的孕育阶段着手预防。

此外,算法规制要遵循ESG理念倡导的协调治理。有效的算法规制既要确保算法问责等目的实现,又要兼顾数字经济的可持续发展。倘若监管者以保护数据隐私之名对算法科技施加从严监管和恣意干预,将会抑制科技创新动力和数字经济活力。2023年7月,国家网信办牵头出台了《生成式人工智能服务管理暂行办法》,其在总则部分提出对于生成式人工智能要坚持“发展和安全并重、促进创新和依法治理相结合”的原则,并且要采取包容审慎的监管理念促进生成式人工智能的健康发展和规范应用。此外,欧盟也通过强化问责的方式要求企业同步关注攸关利益相关者的可持续议题,以及攸关企业可持续经营的财务议题。例如,欧盟在2023年1月落地生效的《企业可持续发展报告指令》(corporate Sustainability Reporting Directive)中规定了“双重重要性”(Double Materiality)原则,这意味着企业不仅需要识别经营活动对ESG造成的重大影响,还需要关注ESG对企业价值造成的重大影响。但在算法深度嵌入的社会当中,基于人权的数据隐私保护与基于产权的数字经济发展难免会出现不兼容。因此,个体权利和社会福利之间必须要创设适当的平衡才能实现“各得其所”。而ESG理念既吸纳了能够保障公众数据隐私的人类关怀因素,又有助于企业发挥经济社会功能,完全可以充当算法规制中的利益协调与衡平工具。


(二)算法管治框架:搭建ESG委员会

为了促使算法企业有效开展数据隐私治理,企业需要在治理层面设立ESG委员会。ESG委员会是公司董事会内设的专门委员会,其与上市公司通常所设立的审计委员会、薪酬委员会和提名委员会作用相同,均旨在向董事会提供建议并协助董事会成员履行职责。虽然从公司的管治框架来看,董事会毫无疑问在角色、职能、定位和权责上居于核心。但是,董事会每年召开的频次有限,并且董事会成员存在明显专业短板,这意味着数据隐私等ESG问题可能得不到董事会层面的重视。根据普华永道的调查分析,财富100强企业中的1188名董事会成员中,仅有29%的董事具有ESG相关的专业知识。另外,根据斯坦福大学对标普1500公司中的200多名首席执行官和首席财务官调查,近半数的高管未能意识到ESG能为公司带来长期净收益。而ESG委员会的设立能够有效弥补董事会对于算法风险的忽视,倒逼其遵循更加透明的数据隐私政策和战略,不断提升数据安全的治理能力和监督能力。正因如此,在波音公司派生诉讼案当中,法院认为如果董事会缺乏监督飞机安全的专门委员会,则董事会不存在“任何负责安全监督的工具”。在“马尚德诉巴恩希尔”案中,法院将专门委员会的缺失视为董事会在监督上的“决定性缺陷”,并将董事会的监督职责延伸到了特定的ESG活动中。

ESG委员会愈加成为董事会治理数据隐私的实践选择,其在架构设置上需要遵循一定的程序性要求。2018年修订的《上市公司治理准则》规定,“上市公司董事会应当设立审计委员会,并可以根据需要设立战略、提名、薪酬与考核等相关专门委员会”。强制要求设立审计委员会意在强化公司对“内部性代理问题”的治理约束,而设立ESG委员会的作用是缓解商业行为中的“外部性代理问题”,填补公司在“外部利益机制”上的治理空缺。例如,为了防范算法的不当利用产生数据的负外部性,蚂蚁集团在董事会层面设立了隐私保护及数据安全委员会,并且成立了由外部专家构成的个人信息保护监督委员,进一步强化了数据隐私合规和ESG发展战略。这里需要说明一点,ESG委员会可以有不同的名称,无论其取名为可持续发展委员会,抑或是企业社会责任委员会,目的都是加强董事会层面对ESG活动的监督。在实践中,绝大多数的企业只是将ESG议题纳入提名和治理委员会,或是分散置于多个委员会之中,仅有一小部分企业单独创建了ESG委员会。笔者认为,大型公司单独设置ESG委员会或许更为妥当,即便是小型公司,也可以组建具有ESG评估功能的专业机构或是临时性的咨询小组。

在具体的工作中,ESG委员会需要明确机构职责并替代董事会行使部分权力。首先,ESG委员会需要将数据隐私合规理念贯彻到企业的日常经营活动中。在董事会闭会期间,ESG委员会需要对数据隐私的风险防控、政策制定和决策部署进行深入调研,并形成有针对性和可操作性强的ESG议案,以供董事会在会议召开期间对ESG事项作出精准评估、科学规划和重大决策。其次,ESG委员会应当对企业的算法活动进行审查和监督。为了更好地统筹算法审查及隐私保护工作,ESG委员会应当任命首席可持续发展官作为管理层代表,紧盯企业的监管动态和风险事件,最大程度维护算法公平以及用户的隐私权益。再次,ESG委员会的运作应当全部或主要由独立董事来完成。ESG委员会配合独立董事制度能在一定程度上重新解构董事会的权力配置,增强企业内部的权力监督机制,实现各方参与者的利益平衡。为了确保独立董事真正独立并使董事会发挥功能,ESG委员会应当享有独立决策权,而不能仅充当咨询提供者和建议者的角色。最后,ESG委员会需要对数据隐私问题进行定价。当ESG委员会引入内部的ESG定价,企业在经营过程中产生的外部化成本和社会损害将会纳入财务报表中。例如,碳密集型企业的ESG委员会应制定内部的碳价格,并将碳成本计入内部的财务报表中;同样的,数据隐私等社会问题也需要ESG委员会进行评估、定价与报告。


(三)算法透明策略:推进ESG信息披露

数据隐私是ESG的实质性议题,披露与之相关的ESG信息是企业的应尽之责。在全球资本市场上,ESG信息的常态化披露已成为一种新型的商业实践和惯例。超过60个司法管辖区要求或鼓励企业借助ESG这一工具披露金融监管、公司法或证券交易所规定的重要事项。此外,在全球最大的250家公司的年度报告中,涉及ESG信息的报告占据了八成。而ESG信息披露之所以能够获得全球青睐,不仅因为ESG攸关股东利益、公司善治和社会福祉,而且它还与数字正义、隐私尊严和人权保障有着紧密联系。举例而言,在智能投顾、自动驾驶、搜索推荐、生物识别、ChatGPT等算法场景中,广泛存在着难以被大众觉察和理解的“算法黑箱”,这些黑箱可以根据用户的身份数据和行为数据衍生出价格歧视和算法偏见。企业通过ESG信息披露能够推进“算法黑箱”的解构,保障用户的知情权和自主决策权。诚如美国法官布兰代斯所言,阳光才是最好的消毒剂。现代企业更应将ESG信息披露作为展示ESG实践以及回应利益相关者诉求的工具,而不能仅将其视作负担或约束。在“有限责任”和“两权分离”之后,ESG将会成为促进企业永续发展的新制度工具。而ESG信息披露则会成为企业贯彻ESG机理、践行ESG举措、指引ESG投资的重要抓手。

在算法领域中,企业应当重点围绕技术端和用户端开展ESG信息披露。在技术端,企业应当以算法模型为中心,具体披露算法的初始参数、算法类型、运作逻辑、建模意图、算法偏差等技术信息,而对于有可能涉及商业秘密的源代码则可以选择拆解后进行披露。如此既能增强算法本身及其运作的透明度,又未对企业的技术创新和自主经营权造成实质性妨碍,还有助于消除普通公众对于“算法黑箱”的忧虑。在用户端,企业应当以用户需求为中心,向用户披露算法中的数据来源、提取手段、脱敏方式、使用目的、同意机制以及对个人权利造成的影响。在现实生活中,每个人都有自己的隐私水平,隐私原教旨主义者和隐私漠视者是隐私控制的两个极端,处于中间的隐私实用主义者则会根据风险与收益对数据隐私作出理性决策。企业在ESG信息披露过程中既要站在一般理性人的立场上,充分披露算法耦合的重大信息以及一切可能对用户造成的不利影响,又要考虑不同隐私群体的差异化需求,以便用户自行决定是否同意企业访问数据隐私以及在何种程度上授权其使用。对于重大信息的判断问题,除了要置身普通用户的处境之中,还需要借助一定的量化手段。例如,对于用户敏感程度较高的数据可以根据差分隐私等隐私保护模型进行测算。与技术端相比,用户端的披露更加注重公众的充分知情和选择自由,两个向度的披露彼此作用又各有侧重。

在明确了ESG信息披露义务的基础上,还需要推进ESG信息的强制性披露。当前,我国《公司法》和《证券法》均未对ESG信息披露予以强制性规定,致使ESG信息披露仅是一项缺乏刚性约束的倡导性要求。但是,仅依靠企业自律并不能督促董事会及其委员会积极开展ESG信息披露。早在1999年,美国联邦贸易委员会就对美国的电子商务平台进行了一项跟踪调查,根据其发布的“自我监管和在线隐私”报告,排名前100的商业网站全部收集了消费者的个人数据,但只有10%的网站主动披露了隐私管理实践声明。这表明自我监管在数据隐私的保护方面作用甚微,企业的有效披露必须借助强制模式。例如,欧盟在2019年颁布的《提高在线平台交易的公平性和透明度规则》(Regulation EU 2019/1150)中强制要求在线平台披露算法排序的主要参数,以此增强算法的透明度和公众知情权。又如,美国在2022年通过的《加州隐私权法案》中规定企业应当以两种或以上方式披露其直接或间接收集到的消费者信息,以此逐步加强消费者的数据隐私安全。强制模式能够倒逼企业积极披露ESG信息,减少了算法中的信息不对称,但强制模式的本土化推进需要循序渐进。我国立法者可以考虑“不遵守则解释”的披露规则,即要求企业披露法定的犈犛犌事项,若企业选择不披露或披露存在偏离则应当说明理由,否则会招致惩罚。而对于强制模式中发生的犈犛犌信息虚假陈述问题,受害投资者可以依《证券法》规定要求相关责任人承担民事赔偿责任,若增信机构存在核查、审计过错也需要承担补偿或连带责任。对于投资者之外的利益相关者遭到的人身或财产损害,则可以根据不同的请求权基础主张停止侵害、损害索赔等。总之,构建完备的犈犛犌信息披露体系才能正本清源,增强犈犛犌信息披露的制度旨趣。

结语

在“万物互联、人人在线、事事算法”的社会,没有一定程度的隐私,就不可能有文明的生活。数据资源和算法程序的结合,促使人类经验被转化为免费的行为数据,并被应用到各类算法场景之中。然而,随着技术社会化、数据货币化、信息共享化以及价值观扁平化,数据隐私问题成为悬在中国经济增长与人格权保障上的“达摩克利斯之剑”。算法中的深刻经济意图和工具主义倾向,使得数据隐私不断被侵蚀和消解。对于数据隐私的算法侵害,我国采取了传统的回应型规制模式。但以回应数据隐私需求为核心的规制模式存在诸多局限,不仅难以抵御算法对公民隐私的“野蛮入侵”,更无益于威慑科技寡头的算法霸权与算法歧视。全球兴起的犈犛犌治理为我国的算法规制提供了一个全新视角。犈犛犌治理坚持数字经济调节与数据隐私保护并重,并且承载了利益相关者的核心关切和可持续发展的良好愿景。我国应当在数字领域加快犈犛犌建设并引领全球的犈犛犌治理,推动算法更加安全、可信。

往期精彩回顾

目录|《上海法学研究》2023总第10卷

李丹|数字公民身份的主体性重塑

杨猛 桑珊|城市数字化转型发展中的刑事风险与规制——以无人驾驶交通运输系统的数字化转型为切入点

庄语滋|论数字化转型中的民事证据真实性标准——以基础融贯论与诠释学循环为进路

许丽|平台经济中轴辐共谋的违法性认定与责任承担

奚哲涵|信息网络犯罪案件涉案虚拟货币的处置研究


上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存