查看原文
其他

算法审计的制度逻辑和本土化构建

张欣 宋雨鑫 郑大学报哲社版
2024-09-17
点击蓝色关注我们


摘要:

在全球算法治理实践中,算法审计制度弥合算法透明与专有技术保护之间的治理冲突,助力企业自我规制与政府规制的双轨协同,推动法律、技术和伦理三元共治机制的有效落地。算法作为被审计对象,具有场景化、动态化、跨域性特质。算法审计应以算法全生命周期为链条,分类分级地采取动态审计原则。基于多中心主体协同治理范式,算法审计可以分为科技企业开展的内部审计以及以由监管机关和第三方开展的外部审计。基于审计路径,算法审计可以分为代码审计、抓取审计、马甲审计、协作式审计和非侵入式审计。围绕算法安全综合治理顶层设计,算法审计框架应由“总体风险的控制与治理”模块以及“过程风险的控制与治理”模块组成。我国在构建算法审计制度时,还应注重强制算法审计与自愿算法审计的有效衔接,推动依托平台审计与用户审计的双轨并行以及构建算法审计与平台算法问责的精准对接。


关键词:算法审计;算法透明;算法问责;算法治理


作者简介:

张欣(1987 - ),女,北京人,对外经济贸易大学法学院副教授,对外经济贸易大学数字经济与法律创新研究中心执行主任,硕士生导师,研究方向:人工智能治理;

宋雨鑫(1996 - ),四川彭州人,对外经济贸易大学法学院博士生,研究方向:网络法。




算法系统的广泛部署已在多层次、多场域引发社会治理风险。与一般技术引发的治理风险相比,算法的技术和应用风险更具复杂性、系统性。一方面,算法应用虚实结合、嵌入广泛,加剧了监管层的信息不对称,监管决策的制定缺乏有效的参考点。另一方面,商业秘密和知识产权制度的存在致使以算法透明和个体赋权为主线的算法治理机制应对乏力。这些结构性挑战推动了算法治理范式转向多中心、多场域、多路径、多模块的新型治理范式。在推动治理变革的前沿实践中,算法审计制度将技术、法律和伦理深度融合,以合理透明度和专业技术保证弥合算法黑箱和商业秘密间的制度张力,为构建事前预警识别机制、事中风险管控机制和事后责任追溯机制提供了有效决策参考,成为当下各国算法治理图景中日益引发关注的新兴治理工具。我国通过《个人信息保护法》 《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)以及《网络数据安全管理条例(征求意见稿)》 (以下简称《网安管理条例(征求意见稿)》)等多部法律法规构建了算法审计的底层规则,并将其作为针对大型互联网平台和高风险自动化决策施行的特殊监管工具。但具体化、精细化、科学化的制度建构方案仍然阙如。本文聚焦算法审计制度,深度剖析其治理效能,凝练探析其构造原理和制度逻辑,紧密结合我国算法治理的客观现状,探索算法审计制度的本土化方案。

一、算法审计的治理效能

算法审计是由技术性和非技术性措施组成的审查算法系统一系列方法的总称。算法审计的范围包括从评估企业算法治理策略到设计和部署阶段使用的特定数据和模型机理[1](P6)。早在1970年,美国在住房政策中创建了种族歧视审查制度[2](P2)。此后,该项制度被创新性地引入到算法规制的相关立法中。例如,纽约市立法明确规定使用招聘算法的雇主必须进行年度偏见审计,否则禁止将算法用于求职评估[3]。欧盟新近提出的《人工智能法案》第19条也要求高风险算法供应商对算法进行“合格性评估”。与国际算法立法趋势遥相呼应,我国《个人信息保护法》第54条、第64条规定了个人信息处理者的定期合规审计义务与个人信息保护强制合规审计义务。《算法推荐管理规定》第7条、第8条以及第24条进一步推动了算法审计制度在我国的生根落地。可以说,算法审计制度业已成为全球算法治理实践中的基础工具,对于算法风险的识别、评估、预防和管理具有重要意义。


(一) 弥合算法透明与算法商业秘密保护的治理冲突

长久以来,算法治理面临着算法公开与商业秘密以及专有技术保护之间的紧张冲突。作为人工智能的底层技术,算法技术依托海量数据资源及强大算力,广泛应用于电子商务、搜索引擎、即时通信、社交媒体等多元场景,为平台企业积累了巨大的经营和竞争优势。算法的商业价值化趋势日益凸显。各平台企业纷纷将算法技术视为企业的核心竞争力。从2020年轰动全球的TikTok禁令事件中,就双方是否出售其核心推荐算法展开的激烈博弈便可管窥算法在人工智能时代的商业价值以及战略意义[4]。鉴于企业为算法开发投入高额成本、巨量资源,将商业秘密保护拓展至算法本无不妥,各国近期立法中也呈现对算法增强保护的立法趋势[5](P106)。但商业秘密的保护范围、保护程度不断增加,逐步覆盖和拓展至与算法有关的模型设计原理、变量特征、变量权重,使之成为科技企业逃脱算法责任、规避算法开发者义务的盾牌。


与之相对,为确保算法的可问责性,技术正当程序规制理念将算法透明、算法公开作为对抗算法黑箱的基础原则。例如,《通用数据保护条例》以算法解释权为代表,创建私权制衡体系,以期赋予用户获知算法运行逻辑、系统功能、设计目的、设想用途和预期后果等信息的权利[6](P1435)。美国《算法问责法案(2022)》则要求公共场景下算法设计者对算法源代码、输入数据等关键信息进行必要披露和公开[7]。但算法黑箱的客观存在和商业秘密制度搭建的坚实盾牌致使算法透明原则的落地颇易受阻且实效不彰。无论是算法透明对开发者激励和行业发展可能带来的制度隐忧,还是算法代码和模型要素公开后来自“算法算计”的现实阻碍,算法透明原则与商业秘密保护之间的冲突与张力成为了算法治理的一大难题。


与开源为表征的算法透明框架相比,算法审计制度更为灵活、包容。算法审计可依据算法系统的透明程度作出因应性调整,即使面对“算法黑箱”,也能够绕开商业秘密这一制度堡垒,仅针对两端输入、输出变量作出必要的观察与分析。从完全封闭的“算法黑箱”阶段到理想化的“算法白箱”阶段,算法审计的优势在于能够合理划定审计公开的对象、范围,不断平衡调优“算法公开—商业秘密”的重叠地带,从而为算法治理提供有效的决策参考点[8](P660-661)。


(二)助力企业自我规制与政府规制双轨协同

算法模型动态更迭、实时更新。这一技术特性对治理的介入时点以及响应速率提出了较高要求。传统治理模式多以政府规制为主导,采取自上而下、事后介入的监管方式,治理效率迟滞,难以满足算法技术内生存在的灵活、动态、弹性等特质[9](P122)。为鼓励科技创新、促进行业发展,以美国为代表,逐步衍生出鼓励企业、行业自我规制的监管生态。从规制实效来看,企业自我规制可采的策略和手段更为丰富,规制启动成本更低,应对更为精准,且因具备更为充分的决策信息,能够将算法风险管理节点前置,已成为多元共建治理模式下不可或缺的治理环节。虽然平台企业自我规制优势颇多,但其弊端也不容忽视。因缺乏强有力的外部约束和问责机制,企业自我规制难以实现从算法预设计到部署和运行阶段的有效管理,企业自我规制常异化为抗拒承担主体责任、排斥政府监管的“护身符”[10](P84-89)。如何更为顺畅地协调、衔接企业自我规制和政府规制的关系,充分发挥二者规制优势而抑制其弊端,成为算法治理的又一挑战。


算法审计制度兼容自愿审计和强制审计,一方面可容纳企业对算法系统实行差异化管理和风险控制的多元化需求,另一方面可为政府介入监管算法预留制度接口,在企业自愿审计之外对高风险、高影响算法系统实施重点监管。故算法审计成为协同、衔接企业自我规制和政府规制的有力杠杆,有助于实现二者并举不悖的治理目标。


(三)推动法律、技术和伦理三元共治机制的有效落地

遵循行为主义逻辑,传统的法律规制模式强调基于事后、基于结果的行为矫正[11](P33)。这一规制模式面对算法技术引发的跨域性、复杂性风险展现出启动滞后、成本高昂、实效不良等局限。与硬法相对,技术标准、合规指引、伦理规范等为内核的软法体系具有形式多元、组合灵活的优势,契合算法治理动态协同、软硬兼施的治理需求,成为国际算法治理共识性工具[12]。常见的软法治理可划分为基于技术的治理和基于伦理的治理两大范畴。实践中以美国国家标准与技术研究院和欧盟第29条工作组为代表,各国以多元化方式积极探索法律、技术和伦理深度耦合、动态衔接的治理机制。例如,美国国家标准与技术研究院专门发布指引,将法律规定中的算法公平原则转化为技术标准和合规指南,推动硬法的稳步落地[13]。算法审计制度围绕算法全生命周期展开,既注重预设计环节对算法技术层面的性能评估,也兼顾伦理原则在技术产品研发层面的具体体现,还通过算法运行和部署确保算法技术和应用的合规底线。可以说,算法审计制度将法律、伦理、技术三维价值目标科学整合到治理实践中,以微观合规审计、中观技术审计、宏观伦理审计协同推动法律、技术和伦理的深度耦合与良性互动。

二、算法审计的制度逻辑

有鉴于算法审计展现出的多重治理效能,我国立 法已初步搭建起底层规则。例如,我国《网安管理条例 (征求意见稿)》第 53 条规定,大型互联网平台运营者 应当委托第三方审计,每年对平台数据安全情况、平台 规则和自身承诺的执行情况、个人信息保护情况、数据 开发利用情况等进行年度审计,并披露审计结果。算 法审计制度虽在各国近期立法中多有提及,但其构建 逻辑和形成机理尚未得到充分挖掘。结合算法审计实 践可知,完整的算法审计制度应由审计主体、审计原 则、审计框架、审计方法以及审计公开五个要素构成。


(一)审计主体

基于多中心协同治理范式,算法审计的主体具有多元化特点。算法审计制度可划分为科技企业开展的内部审计以及由监管机关和第三方开展的外部审计。


1. 内部审计

算法内部审计是开发、应用算法的企业自行开展的审查、评估活动,是“检查人工智能系统创建和部署是否符合既有道德期待和规范性标准的机制”[14](P33)。因算法技术的复杂性和专有性,外部审查机制无法深入训练数据集、模型参数等内部信息,仅可通过观察“输入—输出”变量的方式开展审计工作,无法全面评估、准确探查算法系统的风险点。与外部审计相比,审计人员可深入算法决策环路,访问、审查、测试、评估算法训练的数据集和训练模型,拓展、整合外部审计难以触及的信息。算法内部审计还可兼顾多项政策目标。不仅算法开发团队可由此获得对算法系统的评测和反馈,开发、部署算法系统的企业也可通过审计识别、评估潜在的风险及影响,增强算法安全,提升算法可信度。目前,多家互联网头部企业正致力于算法内部审计制度框架和技术工具的研发。例如,谷歌专门设计了“SMACTR”这种“端对端”的算法内部审计框架,从范围界定、映射、文件搜集、测试和反思五个阶段系统推进内部审计工作[14](P38-42)。Meta、IBM、谷歌分别开发了Fairness Flow、AI 360 Toolkit、Model Card Toolkit等技术工具,用以检测、报告、减轻算法模型中可能存在的歧视和偏见。整体而言,算法内部审计仍处于初期探索阶段,呈现局部化、碎片化、技术性特点,尚无整全化、共识性的内部审计标准可循。但从全球算法治理趋势来看,特别是针对高风险算法以及超大型互联网平台已经呈现出从自愿审计到强制内部审计的规制转向。大型互联网平台特别是高风险、高影响的算法服务提供者应尽快搭建内部审计框架,建立健全全链条审计机制。


2. 监管机构审计

与内部审计相比,监管机构主导的算法审计侧重于算法系统的社会嵌入影响以及嵌入过程的合法性和正当性。目前主要从两个层面展开。首先,依据用户协议、法律规范、政策指南等对部署算法主体的合规实践开展审计。例如,英国信息专员办公室依据《数据保护法》对Clearview AI违法处理个人数据特别是生物特征数据的行为开展调查审计[15]。再如,美国联邦贸易委员会对Everalbum公司未告知用户使用其照片及面部信息训练算法的行为开展调查审计[16]。此类审计多为事后、临时性的个案审计,且常与执法调查重叠展开,旨在为算法问责提供事实依据。其次,围绕公平性、透明度、安全性等指标针对算法输出结果的泛在影响和风险展开审计。例如,英国信息专员办公室聚焦算法公平、算法透明和算法安全提出人工智能的具体审计框架[17]。审计实践中,监管机构主导的算法审计应当依据职权范围、审计重点、审计能力结合算法类型、风险等级、应用规模综合开展,可能出现多头审计以及审计重叠的情形。以英国为例,信息专员办公室以《通用数据保护条例》《数据保护法》为依据从算法系统处理个人数据的流程以及结果是否合规角度开展审计。英国竞争与管理局在不正当竞争与反垄断场景中对算法合谋、算法定价开展审计。金融行为管理局对金融科技类算法合规情况开展审计。依据即将通过的《在线安全法案》,通讯管理局拟对社交平台算法开展审计。多头开展的算法审计可能导致算法风险管理和影响评估存在偏差和冲突。因此,在同质场景下,制定逻辑一致的算法审计标准,探索算法审计通用框架和伦理框架,形成清晰、一致的算法审计应用示范具有重要的实践指导意义。


3. 第三方审计

传统审计实务中,第三方审计是指以注册会计师事务所为代表的专门机构开展审计的审计类型[18](P79-80)。在人工智能领域,因算法审计服务市场尚处培育期,有资质的专业审计人员和独立审计机构十分匮乏,加之缺乏行业内广泛认同的审计标准和审计流程,除技术类咨询机构、初创公司以接受委托方式涉足算法审计业务外,第三方算法审计更多呈现出“参与式审计”的特色[2](P2)。以美国算法正义联盟(Algorithmic Justice League)、“为了人民”(ProPublica)等为代表的非盈利组织和独立研究机构等主体为例,其通过用户调查、模拟测试、抓取审计等外部访问方式对面部识别算法、再犯风险预测算法以及社交平台推荐算法开展了颇具影响的审计。审计结论以调查报告、新闻报道及研究论文等形式向社会公开。其中,“为了人民”对美国刑事审判中的再犯风险预测算法COMPAS开展审计,撰写了“机器偏见”审计报告。该报告引发了美国社会广泛关注,直接推动了算法偏见和算法歧视相关立法的出台。与内部审计和政府审计相比,由第三方机构开展的审计更具活力,且对于内部审计和监管审计形成了必要补充。“参与式审计”的开展可激励用户行使算法权利,提升公众算法技术素养,对算法权力形成有效约束,有利于构建协同治理、多方联动的算法治理新格局。


(二)审计原则

算法审计聚焦于算法生命周期,着眼于全链条、全周期的治理。其既遵循审计活动的一般性原则,也衍生出诸多特定原则。首先,算法审计活动应具有独立性。独立性是审计活动最为鲜明的特征。审计结论的权威性恰源自于审计机构及审计人员同被审计组织和被审计事项之间的独立性。与一般审计有所不同,算法内部审计可能难以完全独立于被审计组织。为保证其独立性和客观性,从事算法内部审计的人员不应参与被审计主体的实际开发及运营活动。企业内部的算法审计人员还应重视审查所在机构的潜在偏见及合规盲区,避免沦为企业声誉管理的形式化工具。其次,算法审计活动应具有客观公正性。客观公正是算法审计的根本源泉。例如,知名网络招聘公司HireVue曾借以外部审计报告“邀名”,夸大其招聘算法公正特性,被揭露后广受诟病和质疑[19]。这一事例表明,若缺少客观真实的审计基础,算法审计结果不仅难以取信于众,算法审计制度也将濒于失效,算法归责亦无从展开。最后,算法审计活动应严格遵循商业秘密的规定。审计人员因审计活动可能接触到训练数据集、代码模型、用户数据等具有商业价值的重要事项,一朝泄露将严重威胁个人信息安全、企业运营安全乃至国家安全。为此,算法审计人员应严格遵守保密义务,对在工作过程中知悉的国家秘密、商业秘密、个人隐私等信息予以严格保密,不得泄露或非法向他人提供。


此外,算法作为被审计对象,其应用具有场景化、动态化特质。算法审计活动还应遵循特定的审计原则。首先,算法审计活动应遵循全链条审计原则。算法风险具有隐秘性和跨域性,从预开发到部署运行,均可能潜藏风险。这就要求算法全生命周期都应保存日志留痕备查。算法审计对象也应实现数据、模型、硬件、人员以及流程管理等审计对象的全覆盖。其次,算法审计应遵循持续审计原则。基于算法的动态更新特性,即使在部署前开展了模型核验,仍可能因数据集更新、算法模型优化、部署环境变化等因素出现未曾识别、未曾防范的增量风险。为此应当定期、持续地开展算法审计工作。最后,算法审计应遵循分类分级原则。经合组织最新研究表明,依据数据和输入、算法模型、任务和输出的不同,算法系统在透明度、可解释性、鲁棒性以及对人权、隐私和公平等重要维度的影响均不相同。算法系统的社会风险呈现差异化、场景化特性。因此,难以形成“一刀切”式的、适用于通用领域的算法审计框架。算法审计主体应当因算法模型特质以及部署运行环境制定相宜的审计方案。


(三)审计框架

就机制设计原理来看,算法审计框架的具体设计与算法审计制度的功能定位密切相关。例如,有研究将算法审计界定为“考察、识别算法对相关者权益负面影响的情形与特征的评估活动。”[20](P2)与之相对,审计框架围绕算法应用的利益相关者以及关键伦理特征形成审计矩阵[20](P3-6)。再如,因将算法审计视为算法问责的衔接工具,英国ICO的审计指南以及荷兰、挪威等国的最高审计机构均围绕算法问责建立公共行政场景的算法审计框架。在我国,算法审计作为算法透明治理与算法过程性监管的重要工具,审计框架更注重用户权利实现方式、算法设计和应用活动的合规风险。例如,中国科学技术法学会在《个人信息处理法律合规性评估指引》(T/CLAST001-2021)中提出了个人信息处理合规评估的审计框架。各种审计框架设计思路虽不相同,但均面临类似挑战。一方面,算法审计宏观框架应具有一致性,避免不同维度审计活动的重叠与冲突。另一方面,算法审计微观框架又需具备灵活性与动态性,能够及时回应复杂技术系统和应用场景之中的多元化治理需求。有鉴于此,新加坡在《人工智能监管模块框架》《数字经济伙伴关系协定》等人工智能治理实践中首倡“模块治理”(modular governance)理念。美国和欧盟跨大西洋数字监管框架商谈过程亦不乏对“共同模块”监管加以呼吁[21]。


模块化作为技术研发的主要原则,在社会治理领域可以发挥积极功用。其提供一种具有可操作性的分解方法,可将复杂问题拆解为相对独立但关联耦合的模块单元,通过逐步破解的方式渐序推进社会总体问题的解决[22](P3)。该种治理范式还凸显出协同和包容性特质,通过将相互冲突、竞争的价值隔离到独立模块之中促进多方利益相关者逐步凝聚共识,以创建可执行的合作关系与行动框架实现治理层面“存异求同”。具体到算法审计领域,模块化的审计框架可满足构建统一审计与专项审计协调的机制目标。依据评估目的,统一的算法审计框架可被拆解为蕴含多元价值目标的模块单元。在模块单元内部,还可层层细化为具体审计指标、具体事项与行动主体,以递进方式形成算法审计制度的“骨架”与“筋肉”。这一设计保证算法审计制度的灵活性与场景性,根据风险等级、适用场景、算法类别等因素迅速重组,将统一框架灵活转换为适用于某一特定领域、特定类别、特定算法的具体框架。


结合算法治理的内在机理,算法审计模块可划分为“总体风险的控制与治理”与“过程风险的控制与治理”两个模块(参见表一)。前一模块聚焦算法设计、部署与应用的影响层面,通过分解算法治理核心目标设定内部审计维度,旨在规范算法开发流程、优化内部治理结构,实现算法潜在风险治理的前置化。这一模块包括内部领导与治理结构、政策与程序、投诉与档案制度、应急预案机制及教育与培训五大模块。其中,“内部领导与治理结构”单元要求对平台企业内部治理开展整体评估,包括是否存在算法安全负责人,是否成立算法风险治理领导小组,是否存在伦理审查委员会或类似性质机构,是否组建算法内部审计团队等领导机制展开审查评估。在“政策与程序”单元,聚焦于算法设计和运行合规审查,包括平台内部管理规范、算法开发设计操作规程、风险管理机制及合规指引等。“投诉与档案制度”单元则关注算法运行的反馈及回溯机制,通过用户投诉和算法全生命周期日志管理实现过程风险的审查。最后,“教育与培训”模块聚焦算法技术伦理与算法运行生态,通过评估算法安全教育与培训等内容实现整全化审计。

“过程风险控制与治理”模块则关注算法系统的流程治理,由数据风险控制与治理、算法风险控制与治理以及平台风险控制与治理三个单元构成。数据单元聚焦前端设计环节,围绕数据质量、数据安全等指标对数据准确性、数据清洁度、数据安全性、数据可访问等指标开展评估[23](P19-21)。算法单元则以中端模型训练为对象,从技术、伦理及法律维度对算法性能和鲁棒性、算法公平、算法透明、算法安全等指标开展评估[24](P43-46)。平台风险控制单元聚焦平台企业的风险控制和管理能力,通过审计评估平台算法应用的道德、声誉和法律风险。


此外,依据特定场景、特定系统,还可能出现算法专项审计需求。这一审计类型是在基础审计之外,依据算法类型和级别开展的特殊设置。例如,针对深度合成算法,可能专门设置真实身份认证、被编辑者单独同意、内容标识等审计要求。对于无法被有效归类并提炼至上述两个模块的专项审计,可以通过附加审计清单的方式与基础审计有效勾连。


(四)审计方法

审计实践中,算法审计的方法依据算法模型的可访问程度有所差别。审计人员可选择的代表性审计方法有代码审计、抓取审计、马甲审计、协作式审计和非侵入式审计五种[25]。


第一,代码审计旨在从基础层发掘模型的安全漏洞和未知隐患,通过敏感函数回溯、全文代码通读和功能点定向审计等方法实现对输入、输出过程的完整审计。代码审计以代码公开为前提,目前多针对开源算法以同行评议、漏洞检测赏金挑战及通过保密协议、数据访问协议等有权访问代码的情形开展。对于非开源算法或将源代码置于商业秘密、专有技术保护的算法模型则难以适用。由于代码审计可直接访问基础代码,审计人员还需严格遵守保密义务,避免源代码泄露引发篡改算法的安全风险。同时也需关注代码技术性能之外的社会风险问题,以综合评估算法模型,获得对算法社会化运行条件、部署环境及应用影响的准确理解及精准评估[26](P36)。第二,抓取审计又称爬取审计,通过访问平台反复更改输入,测试输出并对输出结果观察、分析以开展审计。与代码审计相比,抓取审计多应用于访问权受限的外部审计,通常为有专业技术能力的研究人员使用。抓取审计所能获取的信息量和数据量与平台提供的访问权限范围紧密关联,且可能存在违法风险。纽约大学研究人员就曾因抓取Meta平台信息被关停账户并面临诉讼指控。Meta声称其抓取行为违反隐私政策并侵犯平台合法利益[27]。因此,在算法监督、隐私保护与合法商业利益保障之间寻求平衡点是抓取审计所需面临的重要挑战。第三,马甲审计又称为代理审计,是指审计人员通过创建计算机程序模拟大量“虚假”用户,从而对算法输出进行观察、分析的审计方法。例如,研究人员对谷歌新闻推荐算法进行审计时,设置了四个不同性别、年龄和阶层的马甲用户,用以追踪谷歌算法给不同群体带来信息盲区[28]。该方法优势在于审计人员可自定义样本类型,但也面临样本量不足、抽样代表性不足等问题。与抓取审计类似,马甲审计亦面临法律风险,制造“虚假账户”可能因平台安全审核机制而被强行禁止。第四,协作式审计又称为众包式审计。其审计原理同马甲审计相似。关键变量在于测试用户从仿真模拟转变为招募真人。例如,研究者依托亚马逊的众包平台招募用户对新冠疫情期间健康信息推送算法展开协作式审计[29]。协作式审计法律风险较低,但招募成本限制了其开展审计的范围。若可以突破成本约束,协作式审计作为“参与式审计”的重要路径将具有广阔的适用前景。第五,非侵入式审计。该种审计方法是指征得平台用户同意后,通过获取用户与平台交互信息的方式对算法开展分析、审计。获取交互信息既可以通过用户问卷调查、访谈等方式开展,亦可借助算法自动化收集。例如,新闻机构The Markup的“公民浏览器计划”就是事前获取用户同意在其计算机上安装自定义浏览器,以实时分享在Meta和YouTube平台的账户数据。非侵入式审计成本较低,且不涉及对平台算法及运营层面的干扰,因而法律风险也较低。因此,可作为“参与式审计”工具之一加以推广。


除代码审计外,其余审计方法多为外部审计采用。此外,对用户协议、隐私政策、数据共享协议、访问记录、系统日志等书面材料开展审查,对算法研发、运营人员询问、访谈等询证方法,以及控制性测试和实质性测试等传统审计方法仍可适用于算法审计实务之中[18](P22-23)。


(五)审计公开

算法审计完成后,审计机构还应出具审计报告作为最终成果。算法审计报告存在多方鉴证需求。监管机构将审计报告作为合规性验证和归责处罚的依据。股东、投资者可借助审计报告评估算法系统运营状况和风险控制状况。潜在利益相关者与公众则可借此实现对算法架构、决策逻辑及风险状况的知情权。这些需求均要求算法审计报告在一定程度公开。我国《网安管理条例(征求意见稿)》第53条指出大型互联网平台运营者委托第三方开展的年度审计应当披露审计结果。由此可见,除自愿审计类型的算法审计报告由科技企业自行决定是否公开以及公开范围外,凡属于强制审计范畴,特别是涉及高风险、高影响的算法或大型互联网平台运营者的算法审计报告原则上应向社会公布。对于算法审计报告中可能援引的不宜向外界公布的源代码、隐私数据、商业秘密等信息可采取隐匿化处理且报审核后公布。当然,科技企业亦可依据主体类型设置差别化的访问权限从而限定公开内容,避免因审计公开不当引发技术安全风险与企业运营风险。

三、算法审计的中国方案

伴随着算法社会的全面来临,算法监管需求已呈指数性增长。据统计,截止至2020年12月,国内市场可监测到的APP数量已达345万款。仅在APP用户端承载的算法模型审核和安全监测需求就已然超越有限的监管和执法资源。加之疫情期间用户衣食住行与算法应用的进一步深度绑定,加快构建并完善算法监管体系已成题中之意。《算法推荐管理规定》的出台标志着我国正式迈入算法治理的“2.0时代”。算法审计作为重要的治理工具在《个人信息保护法》和《算法推荐管理规定》等“硬法”体系之中渐具雏形。《个人信息保护法》第54条和第64条分别规定了个人信息处理者的定期合规审计义务和个人信息保护强制合规审计义务。《算法推荐管理规定》第7条、第8条和第24条初步勾勒出了算法安全审计的制度框架。《网安管理条例(征求意见稿)》第58条承接《个人信息保护法》的规定,明确规定了数据处理者具有自主审计和强制外部审计义务。此外,《信息安全技术信息系统安全审计产品技术要求和测试评价方法》《信息安全技术个人信息安全规范》也初步建立了信息安全审计的软法框架(参见表二)。


整体来看,我国科技企业履行算法审计义务的适用对象、审计依据、审计内容、审计重点以及审计报告等已有基础规范可循,但审计流程、审计方法以及审计制度与其他算法治理工具的衔接等落地性制度仍需着力推进。结合我国既有制度资源禀赋和域外审计经验,建议从以下三个方面协同构建算法审计制度。


(一)强制算法审计与自愿算法审计的有效衔接

算法审计治理效能的发挥来源于企业自我规制的激励与用户通过审计践行参与式治理的制度活力。通过自愿审计和强制审计的有机结合,算法审计将企业自我治理嵌入到算法治理实践之中,以自愿审计方式助力企业自我规制,推动企业治理与算法治理的深度融合。而在强制审计的制度设计中,强制内部审计以监管性制度约束、最低标准和绩效目标为企业自主活动划定合法边界,构成了“基于管理的规制”[30](P21)。强制外部审计则旨在为高风险、高影响的算法系统或者达到超大规模标准的互联网平台设定“安全阀门”,通过第三方审计以及政府审计方式监督、管控和调适算法应用的合规性与伦理性。可以说,自愿审计与强制审计的有机衔接促使企业自我规制与政府规制双轨并举,推动“算法安全多元共治”的新格局。


就我国现有立法而言,《个人信息保护法》与《算法推荐管理规定》将算法审计类型限定为强制审计,具体包括个人信息处理者定期强制合规审计,特殊个人信息风险或安全事件中的第三方合规审计,以及推荐算法的强制安全审计。但现有制度安排对自愿审计的关注不足,缺少强制审计同自愿审计的衔接机制,不利于开展算法分类分级治理。强制审计义务对企业量级、风险等级、部署场景、用户规模等因素带来的差异化涵纳不足,可能致使市场力量较为薄弱、用户规模有限、算法应用风险可控的中小型企业担负较高的合规成本。因此,建议引入自愿审计类型,通过强制审计与自愿审计的互动衔接践行算法分级分类治理。另一方面,建议在强制审计中强化政府审计类型的适用。《个人信息保护法》第64条为强制性外部审计提供了制度接口。但该项审计限定为“委托专业机构”开展合规审计。委托专业机构进行外部审计固然可弥补监管机构专业性和资源性不足的缺陷,但这一制度设计可能引致实效疑虑[31](P104)。当个人信息处理活动已发生较大风险或出现安全事件时,监管部门应及时启动、有效介入以尽快处置和消弭相关风险。强制企业委托第三方审计的监管策略可能延误时机,并产生企业与受托机构不当联合从而影响审计实效等情形。基此考虑,《网安管理条例(征求意见稿)》第58条第2款新增“主管、监管部门”对重点数据处理活动开展审计的类型。我国应进一步细化监管机构主导审计的启动条件、启动时机、审计标准等关键问题的规则设计,为平台承担相应的主体责任提供依据。


(二)依托平台与依托用户算法审计路径的并行展开

算法审计效用的良好发挥有赖于采取科学合理的审计路径。虽然审计主体可依据被审计算法组合适用各类方法,但目前主流应用的代码审计、抓取审计等方法仍然以平台提供可访问数据为前提,对平台依托性较强。依托平台的算法审计虽然在专业性和准确性方面享有优势,但访问权限的限制影响了算法审计可供开展的频次、广度和深度,在实践层面难以满足多领域、多行业、多场景算法系统的全覆盖。因此,有必要为依托用户的算法审计路径提供充分的制度激励。目前一些国家和地区已有类似的制度设计。例如,欧盟《数字服务法》第31条要求平台允许“经过审查的研究人员”对其算法进行审查。美国《平台问责制和透明度法案》第4节规定被国家自然科学基金委员会认定为适格研究人员的主体依托具体项目可获得研究所需的平台信息。此外,一些互联网企业也在积极推进用户算法审计,营造可信运营生态。例如,Meta制定了“脸书开放研究与透明度”(FORT)计划,为研究人员提供受隐私保护的数据集和API,以学术研究促进脸书算法的不断优化。YouTube近期宣布开展“YouTube研究员计划”,为研究人员了解YouTube提供数据和工具支持。可以说,依托平台开展的算法审计对于企业合规、风险防控与应急管理具有重要意义。而依托用户开展的算法审计则对于算法的调优与完善发挥着实质影响。有研究者曾对优步的峰时定价算法以模拟用户的方式展开审计,结果发现优步的定价算法在同一时段同一地区定价时存在时滞扰动,导致定价不公。该问题后反馈到优步受到平台重视,对算法进行了公平性调优[32]。由此可见,自下而上、用户驱动的算法审计以平台算法同用户日常交互活动为基础,能够实时、动态、持续地反映部署于真实环境中的算法风险和算法影响。同依托平台的审计路径相比,用户驱动的审计路径更能在日常、真实的交互中发现利益攸关的影响节点,更能捕捉技术精英因专业知识结构同质化而产生的审计盲区,从而最大化发挥“参与式审计”的制度优势[33](P4-5)。因此,应推动专家驱动的依托平台审计与用户驱动的审计路径双轨并行。一方面由专家团队对算法系统作出科学、准确的整体评估和认证,以专业性保障算法审计的可信可靠。另一方面,还应充分实现用户社群的参与激励与参与保障,内外协同促进算法向上向善。


就我国目前的制度框架来看,实现依托平台和依托用户双向并举的审计路径主要面临三项核心挑战。其一,我国平台企业的数据和算法访问权限开放严格受限,尚无面向研究人员和专业组织的开放透明计划。依托平台开展的审计路径实效尚待检验。目前多依靠个体用户自发报告及媒体调研监督,从“黑箱”外部对算法进行有限反馈。其二,尽管《个人信息保护法》第64条为第三方机构开展的算法合规审计提供了法律依据,但实务中能够胜任算法审计的专业机构仍不多见。适格的算法审计团队应具备综合性、跨学科的知识背景,有系统的平台经营、内部治理及风险控制的经济学训练,以及对算法、数据等数据和人工智能领域的深厚知识积淀。传统的审计人才恐难担此重任[34]。其三,当前零星展开的用户驱动型审计缺少制度化的反馈互动机制,难以为用户社群提供持续的参与激励。未来可尝试以平台企业为联结点,一方面推动对适格研究人员的特定访问权限,借助外部力量综析算法影响。另一方面逐步设立用户投诉报告与反馈信息分享制度,将用户反馈及时报告给产品设计和运营团队,促进算法优化。用户驱动的参与式审计可扮演常态化风险监测的角色,亦可成为监管部门“发现个人信息处理活动存在较大风险或者发生个人信息安全事件”的线索,成为启动个案调查的重要机制。与之相配,算法审计行业标准、审计流程与专业机构和人才的建设亦应提上日程,在整合既有审计力量基础上加快组建一批有能力、有资质的算法审计团队。


(三)算法审计与平台算法问责节点的精准对接

作为动态风险管理和流程活动监管的程序性控制方案,算法审计有助于预警和降低算法风险的发生频次、深度和广度,但难以阻断风险向实际损害结果转化,更无法在微观、具案层面为被侵权人提供“个案正义”式的补救[35](P172)。与之相对,算法问责制虽可在损害结果发生后对平台主体追责,但因算法决策过程的黑箱性与行为主体和控制主体的隐匿性,使得算法问责的实现障碍重重。算法审计制度能够穿透“算法黑箱”,通过评估数据、算法和应用过程,为算法问责提供详实可信的事实依据。因此,算法审计制度应当与算法问责制度有机衔接,在规则设计层面设置精准对接机制,实现算法合规评估、风险管理向损害问责、有效救济的平滑推进。


在设计具体制度时,应注意以下两点,避免因审计节点转换引发问责主体错位。首先,应对审计流程关键节点的行为主体、责任主体予以清晰厘定,确保审计框架中“模块-指标-事项-主体”的对应耦合。概括化的主体界定可能发生主体混淆,导致对应问责节点的主体纠责机制失灵。以《算法推荐管理规定》为例,算法审计义务主体被界定为“算法推荐服务提供者”。实践中,可能发生技术研发主体与技术应用主体的重叠与分置。通常情况下算法技术提供者同算法服务提供者主体身份重合,但提供算法信息服务的企业委托其他企业开发算法系统的做法亦不鲜见。在分置情形下,算法技术研发者难以独立开展算法应用层面的审计,而购买或者委托算法技术并提供算法服务的主体则难以介入到算法研发过程,难以对数据、模型训练等环节展开质量控制和安全管理。


其次,应严格区分算法审计的责任主体与算法责任的承担主体。前者包含审计场景下算法技术开发者、算法系统实际控制者以及算法治理责任承担者。后者则指向算法系统应用造成侵害与损害的侵权人。从关系上看,若算法审计环节的责任主体未尽好风险治理职责,可能引发算法应用风险,但是否承担侵权行为仍需就风险实害化程度以及因果关系认定等构成要件予以综合考察。以《个人信息保护法》第69条为例,该条规定了侵害个人信息权益造成损害的过错推定责任。在此情形下,是否依据法律规定定期开展合规审计成为个人信息处理者自证尽到合理注意义务的重要证据之一,[36](P417)但个人信息处理者是否承担侵权责任仍必须满足侵权行为的构成要件,并非仅因审计中发现的违法事项直接追责。

四、结语

面对算法应用带来的颠覆性、系统性、复杂性风险,自上而下、政府主导、事后介入的规制范式已应对乏力。算法治理亟需一种多元参与、协同联动、软硬兼济的创新思路。算法审计精准锚定审计对象、合理划定审计范围,深度融合技术、法律和伦理,为算法问责提供行之有据的决策参考,成为推动算法治理范式转型的重要抓手。我国算法审计制度雏形初具,但审计原则、审计类型、审计公开、审计路径等核心元素尚待确立。本文系统分析了算法审计的治理效能,深入剖析了算法审计的构建机理,结合我国的制度定位和现有框架,从类型衔接、路径融合、治理互动和制度对接等视角提出了具体方案的构建方向。近期,我国与美国监管机构签署了合作协议,拟依法推进跨境审计的监管合作,建立对等互利的合作安排[37]。算法审计不仅扮演着督促企业履行安全可信治理责任的有力抓手,更是以治理促发展,符合全球人工智能治理合作框架的通行做法。未来,还应对审计指标体系、审计流程以及审计矩阵等内容加以研究,以为算法审计制度的科学构建提供更为充分的理论基础。

参考文献:

[1]Digital Regulation Cooperation Forum.Auditing Algorithms:the Existing Landscape,Role of Regulators and Future Out-look[R]. London:Digital Regulation Cooperation Forum,2022.

[2]Briana Vecchione,Karen Levy,Solon Barocas. Algorithmic Auditing and Social Justice:Lessons From the History of Audit Studies[J].EAAMO' 21:Equity and Accessin Algorithms,Mechanisms,and Optimization,2021,(19).[3]Local Laws of the City of New York For the Year 2021 No.144[EB/OL].[2022-8-20]. http://nyc.legistar1.com/nyc/attachments/c5b7616e-2b3d-41e0-a723-cc25bca3c653.pdf.

[4]The White House.Executive Order on Addressing the Threat Posed by TikTok[EB/OL].(2020-08-06)[2022-8-20].https://trumpwhitehouse.archives.gov/presidential-actions/executive-order-addressing-threat-posed-tiktok/.

[5]李晓辉.算法商业秘密与算法正义[J].比较法研究,2021,(3).

[6]张欣.算法解释权与算法治理路径研究[J].中外法学,2019,(6).

[7]Algorithmic Accountability Act of 2022[EB/OL].(2022-03-02)[2022-8-20].https://www.congress.gov/bill/117th-congress/senate-bill/3572/text.

[8]Joshua A. Kroll,Joanna Huey,Solon Barocas,etal.Accountable Algorithms[J].University of Pennsylvania Law Review,2017,(165).

[9]李洪雷.论互联网的规制体制———在政府规制与自我规制之间[J].环球法律评论,2014,(1).

[10]Ben Wagner.Ethicsas An Escape from Regulation:from“ Ethics-Washing ” to Ethics-Shopping?, Being Profiled: Cogitas Ergo Sum[M]. Amsterdam: Amsterdam University Press,2018.

[11]崔靖梓.算法歧视挑战下平等权保护的危机与应对[J].法律科学(西北政法大学学报),2019,(3).

[12]Carlos Gutierrez,Gary Marchant. How Soft Law is Used in AI Governance[EB/OL]. (2021-05-27)[2022-8-20]. https://www.brookings.edu/techstream/how-soft-law-is-used-in-ai-governance/.

[13]NIST. Towards a Standard for Identifying and Managing Bia in Artificial Intelligence[R]. Gaithersburg:National Institute of Standards and Technology,2022.

[14]Inioluwa Deborah Raji,Andrew Smart,Rebecca N. White,et al. Closing the AI Accountability Gap:Defining an End-toEnd Framework for Internal Algorithmic Auditing[J]. Proceedings of the 2020 conference on fairness,accountability, and transparency,2020.

[15]ICO.ICO Issues Provisional View to Fine Clearview AI Inc over £ 17 Million[EB/OL].(2021-11-29)[2022-8-20]. https://ico.org.uk /about-the-ico/media-centre/news-and-blogs/2021/11/ico-issues-provisional-view-to-fine-clearview-ai-inc-over-17-million/.

[16]FTC. California Company Settles FTC Allegations It Deceived Consumers about use of Facial Recognition in Photo Storage App[EB/OL].(2021-01-11)[2022-8-20]. https://www.ftc.gov/news-events/news/press-releases/2021/01/california-company-settles-ftc-allegations-it-deceived-consumers-about-use-facial-recognition-photo.

[17]ICO. AI Auditing Framework[EB/OL].[2022-8-20]. https://ico.org.uk/about-the-ico/media-centre/ai-auditing-framework/.

[18]秦荣生,卢春泉. 审计学(第10版)[M].北京:中国人民大学出版社,2019.

[19]Alex C. Engler. Independent Auditors are Struggling to Hold AI Companies Accountable[EB/OL].(2021-01-26)[2022-8-20].https://www.fastcompany.com/90597594/ai-algorithm-auditing-hirevue.

[20]Shea Brown, Jovana Davidovic,Ali Hasan. The Algorithm Audit:Scoring the Algorithms that Score Us,Big Data&Society,2021,(8).

[21]Ness,Susan,Chris Riley. A Safe,Open Internet with Transatlantic Rules is Easier than It Sounds[EB/OL]. (2022-05-06)[2022-8-20].https://thehill.com/opinion/technology/3479764-a-safe-open-internet-with-transatlantic-rules-is-easier-than-it-sounds/.

[22]Srivardhini K. Jha,E. Richard Gold,Laurette Dubé. Modular Interorganizational Network Governance: A Conceptual Framework for Addressing Complex Social Problems[J].Sustainability,2021,(13).

[23]Biagio Aragona. Algorithm Audit: Why, What, and How?[M]. London:Routledge,2022.

[24]Adriano Koshiyama, Emre Kazim, Philip Treleaven. Algorithm auditing:Managing the legal,ethical,and technological risks of artificial intelligence,machine learning,and associated algorithms[J]. Computer,2022,(55).

[25]Christian Sandvig,Kevin Hamilton,Karrie Karahalios,et al. Auditing Algorithms:Research Methods for Detecting Discrimination on Internet Platforms[J]. Data and Discrimination:Converting Critical Concerns into Productive Inquiry,2014,(22).

[26]Paul Baillargeon. Asymmetrical Governance:Auditing Algorithms to Preserve Due Process Rights[J]. University of Windsor Major Papers,2021,(178).

[27]Mike Clark. Research Cannot Be the Justification for Compromising People's Privacy[EB/OL].(2021-08-03)[2022-8-20].https://about.fb.com/news/2021/08/research-cannot-be-the-justification-for-compromising-peoples-privacy/.

[28]Mario Haim. Burst of the Filter Bubble? Effects of Personalization on the Diversity of Google News[ J]. Digital Journalism,2018,(6).

[29]Binh Le,Damiano Spina,Falk Scholer,et al. A Crowdsourcing Methodology to Measure Algorithmic Bias in Black-box Systems:A Case Study with COVID-related Searches[J].Proceedings of the Third Workshop on Bias and Social Aspects in Search and Recommendation,2022.

[30]宋华琳.论政府规制中的合作治理[J].政治与法律,2016,(8).

[31]宋华健.反思与重塑:个人信息算法自动化决策的规制逻辑[J]. 西北民族大学学报(哲学社会科学版),2021,(6).

[32]Le Chen,Alan Mislove,Christo Wilson. Peeking Beneath the Hood of Uber[EB/OL].[2022-8-20].https://www.ccs.neu.edu/home/amislove/publications/Uber-IMC.pdf.

[33]Hong Shen,Alicia DeVos,Motahhare Eslami,et al. Everyday Algorithm Auditing:Understanding the Power of Everyday Users in Surfacing Harmful Algorithmic Behaviors[J].Proceedings of the ACM on Human-Computer Interaction,2021,(5).

[34]沙亦鹏,于团叶. 加强审计监督,牵住算法治理的“牛鼻子”[N].科技日报,2022-2-7,(8).

[35]王莹.算法侵害责任框架刍议[J].中国法学,2022,(3).

[36]程啸.个人信息保护法理解与适用[M].北京:中国法制出版社,2021.

[37]新华网.中美监管机构签署合作协议 依法推进跨境审计监管合作[EB/OL].(2022-08-26)[2022-8-28].http://m.news.cn/2022-08/26/c_1128951624.htm.

【原文载于《郑州大学学报》(哲学社会科学版)2022年第6期】





精彩推荐



不同类型县城推进新型城镇化的难点与路径
邻避风险沟通场域中的话语之争、现实困境及对策研究
美国工业化时代城市的烟雾污染与治理
- The End -

继续滑动看下一个
郑大学报哲社版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存