查看原文
其他

魏远山:算法透明的迷失与回归

魏远山 数字法治 2022-12-01

点击蓝字

关注我们

魏远山:湘潭大学知识产权博士点在读博士研究生,主要从事知识产权、数据保护研究工作。

本文原载《北方法学》2021年第1期,转载对注释与参考文献进行了省略。

摘要

算法的黑箱属性在赋予算法使用者算法权力的同时也威胁着算法相对人的合法权益。以公开算法代码等信息为手段的算法透明措施,成为规范算法权力和保护算法相对人合法权益的重要治理策略之一。但碍于算法的商业秘密属性、算法技术的复杂程度和信息披露对象技术能力等因素的限制,算法透明所能实现的效能有限。为更好发挥算法透明的作用,可从算法代码等信息的公开、算法审查的启动程序、相关审查人员的技术要求、算法审查结果的反馈,以及加强监督等方面建立可信任的算法审查机构,消解算法透明的弊端,提升算法治理效能。

关键词

算法透明;代码公开;商业秘密;算法审查;算法治理

引言

近期,一篇名为《外卖骑手,困在系统里》的网文引发社会公众广泛关注:外卖平台利用算法不断压缩外卖配送员的配送时间,在强大的算法系统驱动下,外卖配送员为避免差评维持收入,会在现实中选择逆行、闯红灯等做法,不仅影响自己的生命健康,也对交通安全构成隐患。外卖平台基于大数据技术上知消费者意愿,下知外卖配送员的可压榨时间,并利用算法针对不同配送员制定不同的配送方案,变向对配送员施加“价格歧视”,最终实现对所有配送员的剥削,来牟取暴利。此篇网文之所以能够引起如此广泛的热议,除外卖配送员的不利处境外,还在于算法可被应用于各种场景,任何人都可能成为下一个被剥削的“外卖配送员”。这种担忧的根源是算法的保密性、技术盲点、算法自身的复杂性以及算法使用者的刻意隐瞒,使绝大多数人无法理解算法的工作原理,导致算法使用者处于事实上的支配地位,形成“算法霸权”,严重危及算法相对人的合法权益。

为避免算法暴政,诸多学者主张回应上述导致算法黑箱的问题,来提高算法透明度。不过,算法的复杂性与相关技术盲点应是技术教育和学习而非法律规制应解决的问题,而算法的保密性和算法使用者的刻意隐瞒作为具有法律意义的制度安排和个体行为,则可回归法律层面予以分析。因算法是算法使用者或算法设计者投入巨大成本训练而成,通常被保密措施精心呵护。这导致相比于算法使用者的刻意隐瞒,以保护竞争优势为名的商业秘密制度将为算法使用者故意隐藏规则、操纵消费者和制造歧视创造更多的灰色空间。为卸去商业秘密制度对算法黑箱属性的加持作用,要求算法使用者公开算法(源)代码和数据等信息以提高算法透明度的呼声渐高。但算法若符合商业秘密的构成要件,理应受到法律保护,要求公开代码将不当损害算法所有者的合法权益。可见,提高算法透明度与商业秘密制度存在紧张关系,如不能处理好二者关系,将导致算法透明度不彰或商业秘密制度失灵的不利后果。而且,公开算法代码等信息的弊端并不仅限于对企业算法商业秘密利益的损害,还会带来规避算法等不良后果,甚至因技术障碍导致算法透明难以实现。因此,本文主要在辨析相关概念的基础上找准算法透明的功能定位,分析其与商业秘密制度、个人信息保护的冲突,以及功能实现的障碍及其消除等问题,希冀在理性客观认识算法透明的前提下,合理安排提高算法透明效能的措施,更好地推进算法治理。

一、算法透明的庐山真面:公开算法代码等信息

算法作为一种数据处理规则,不仅可模式化处理事件以降低事件处理成本,还可根据数据进行分析和预测,成为量化社会的一种重要方式,进而作为辅助决策系统被广泛用于各种政策制定场景,如个人征信、房屋租赁等领域。但因算法自身的复杂性、相关技术知识的专业性、算法的商业秘密属性和算法使用者的刻意隐瞒,导致算法一直披着技术的外衣并持着商业秘密的保护伞,拒绝向社会公众解释决策的制定原理。在算法笼罩下的疆域,资本主义利用数据塑造算法霸权,依靠算法霸权实行算法独裁。算法使用者因算法享有事实上的支配权而凌驾于算法相对人之上,在私人利益的驱动下,逐渐侵蚀算法相对人的合法权益,导致诸如算法歧视、算法操纵等算法妨害层出不穷。

为此,学者们开始探寻算法治理之道,试图构建公平、可责和透明(Fair, Accountability, Transparency, FAT)的算法。其中,公平性是指在跨不同受众特征(如种族、性别等)进行比较时,确保算法决策不会产生歧视性或不公正的影响。可责性是指当算法决策系统对个人或社会造成不利影响时,提供外部可见的补救途径,并指定负责解决此类问题的相关人员。透明性是指通过提供诸如详细的文档、技术上的合适API接口和允许使用条款等可进行监测、检查或复核的信息,使中立第三方能够探查和审查是否存在算法妨害;若有,则还需探寻算法妨害形成的机理。不过,本文仅关注算法透明机制的作用、障碍、弊端及可能的实现路径等问题,算法公平性和可责性并不在本文讨论范围。

事实上,提高计算机系统透明度的呼声早在本世纪初期就已存在,如对计算机辅助决策模型透明度的研究在2005年就已出现。在随后的近十年,一方面因算法技术的发展受限导致相关研究趋缓;另一方面算法的可专利性、算法致害的损害赔偿责任及反不正当竞争等问题成为彼时研究的重点,导致与算法透明相关的研究停滞不前。直至2014年前后,因算法技术的再度繁荣及其应用场景的多元化,再加上算法妨害事件频频出现,对算法透明的探索再次被作为一种迫切的需求被诸多学者关注,成为一大热点话题。

在当前的算法治理理论和实践中,对算法透明的理解有两种:一种是单指公开算法代码、数据和决策树等信息;另一种则将算法透明应视为一个完整的过程,不仅要公开代码和数据等信息,还应通过文和图形等方式解释算法决策是如何做出的。前者可称为狭义的算法透明;后者可称为广义的算法透明,其不仅包括算法透明,还包括算法可解释性。算法可解释性要求算法使用者确保能以非技术性的方式向算法相对人和其他利益相关者解释算法决策的意义和原理,以及作出该决策的任何中间数据。

严格来说,算法解释和算法透明并非两个独立的治理维度,二者在一定程度上具有共性:一是目的具有一致性。不论是算法透明还是算法解释,均是为避免算法使用者因算法享有不合理的算法权力,改变其与算法相对人之间的平等地位,进而保护算法相对人的合法权益和社会公共利益。二是实现路径具有重叠或交叉。通过公开算法代码和数据等信息不仅是算法透明的主要方式,也是算法解释的必要步骤之一。但二者也存在一定差异:首先,狭义的算法透明关注代码和数据等信息的公开,算法解释更侧重算法相对人或社会公众对算法决策的可理解性;其次,算法代码和数据等信息的公开是算法透明的核心关注点,但算法解释的重点更多在于以通俗易懂的方式解释算法决策的原理、决策树和逻辑关系等;最后,二者在功能上存在差异,算法透明是算法解释的前提或基础,算法解释因算法透明更具说服力和可理解性。在现有研究中,对算法解释的研究可分为两类:一种是将算法透明和算法解释融合为“可理解的算法透明”;另一种是基于算法解释和算法透明在自身功能和关注点上的差异,多将算法可解释性作为一个单独的算法治理子项进行讨论。但对算法透明的研究,主要集中于广义算法透明的研究,或以只言片语对狭义算法透明进行论述,极少有专门关注狭义算法透明的研究成果。

基于此,本文仅关注狭义的算法透明问题,即算法代码和数据等信息的公开是否能实现算法透明;若能,又如何提升其算法治理效能,以及现存争议如何消解等问题。

二、算法透明的是是非非:支持与反对的攻守道

就算法透明机制而言,并非所有学者都持肯定态度。支持者认为公开算法代码和数据等信息能减少算法妨害,保护算法相对人合法权益;反对者认为公开上述信息的弊端大于益处,且并非仅公开算法代码和数据等信息就可实现算法透明。

(一)算法透明支持论

追求算法透明的最直接原因是算法的复杂性和专有性会掩盖算法妨害的可感知性,不利于保护算法相对人的合法权益。一方面,算法技术本身就极其复杂,未经专业训练的人无法理解算法的工作原理。再加上,算法多与有“维度的诅咒”(curse of dimensionality)之称的机器学习技术一同被运用,两种技术的双重复杂性会加大一般公众理解算法工作原理的难度,导致人们难以理解算法决策的制定过程和原理。另一方面,算法设计者或算法使用者耗时费力地设计或开发算法,并将算法视为获取竞争优势的重要武器,一直被商业秘密制度精心呵护,营造着“算法未知”的迷雾,隔绝了社会公众的感知。

以上原因虽是造就算法黑箱的部分原因,但在隔绝公众感知的同时也将算法妨害深藏其中,导致算法相对人合法权益极易受损且难以获得救济。因此,提高算法透明度的支持者认为,通过公开算法代码和数据等信息,能够让社会公众或算法监管机构了解算法是如何工作的、是否出现算法妨害及其产生原理,进而保护算法相对人的合法权益。而且,公开算法代码等信息具有双重效果:可允许中立第三方将代码转化为算法,检验公开的算法是否与使用的算法相同;通过将公开的数据输入算法,核对算法输出的结果与算法使用者公布的结果是否一致。因此,允许访问受商业秘密保护的相关算法代码,以及通常不对外公开的数据和程序员日志等,成为检验或审查算法是否存在妨害的重要手段。

从上述角度看,通过公开算法代码等信息能大幅提高算法透明度,避免算法妨害,这在法律文本上也可找到依据。如按照《一般数据保护条例》对透明度的要求,处理个人信息或使用自动化决策系统应保证数据的收集、处理和使用等任何信息均应可被数据主体访问,且为确保上述信息能被理解应使用清晰明了的语言。算法基于个人信息作出决策,涉及个人信息的处理,理应公开相应数据供数据主体访问。对此,诸多学者和实务工作者予以认可。如奥尼尔在《数学毁灭性武器:大数据如何增加不平等和威胁民主》一书中呼吁,如信用评分算法等对我们日常生活产生重大影响的算法,应向社会开放;对某些潜在有害的算法还应通过公开输入的数据和输出的结果来提高透明度。美国国际贸易委员会也对此持积极态度,而且美国电子信息隐私中心认为算法透明应是使用算法决策辅助系统的一项基本要求。更有甚者认为,所有使用算法进行决策的系统都应公开源代码以便社会公众审查。

(二)算法透明反对论

而反对提高算法透明度的学者认为,公开算法代码或数据等信息的弊大于利,甚至准确重现算法决策制定过程或解码算法是不现实的。反对算法透明的观点梳理如下:

1. 算法透明之弊大于利

公开算法代码等信息的核心价值在于希望通过信息公开提高算法透明度,允许中立第三方对算法工作原理、是否存在算法妨害进行检测。假设在能够最大限度实现上述目标的情况下,公开算法代码等信息可能存在以下弊端:

一是有损商业秘密制度的效能。算法作为算法设计者或算法所有者投入巨大成本训练的成果,在算法符合商业秘密保护要件时,算法所有者以商业秘密为由拒绝将其公开,具有正当性。若要求公开算法代码等信息,将导致算法所有者丧失竞争优势,甚至因竞争对手可轻易复制算法而挫伤算法开发积极性,最终扰乱社会正常秩序,阻碍创新。

二是为他人不当制造规避或“戏耍”算法(game the algorithm)的机会。算法决策系统的不透明性能有效避免算法相对人利用算法原理规避原本应得的结果,转而刻意制造更有利的评价。若将算法代码等信息公开,算法使用者可能与滥用算法规则的算法相对人进行“猫鼠游戏”,导致算法的效能被降低。以信用评分算法为例,当信用评分算法不被所知悉时,社会公众只能按照既定情况得到客观的信用得分;但将信用评分算法的细节公开后,人们可根据算法原理制造于己有利的虚假数据来提高自己的信用得分。

三是公开数据会泄漏个人隐私或导致个人信息安全问题。算法毕竟是算法使用者处理与人相关事物的工具,且数据是算法决策得以制定的前提要素之一。只有将与个人相关的数据或信息输入算法,才能得到相应的算法决策。但以公开算法代码和数据等信息的方式提高算法透明的措施,将会对外公开与个人相关的数据或信息,导致个人信息被不特定人知悉,危及个人信息安全和个人隐私保护。

在能够最大限度实现算法透明目标的假设情境中,公开算法代码等信息都可能存在上述弊端。在现实情形中,因各种原因的限制,算法透明难以发挥应有效能,在此种情况下,算法透明的弊端可能更为严重,算法透明的效果也将进一步被减损。

2. 算法透明效果的质疑

除上述不利后果外,公开算法代码等信息并非必然会提升算法透明度,也并不能完全杜绝算法妨害的出现。

一方面,以公开算法代码等信息的方式拉开“算法未知之幕”,允许社会公众对算法进行审查、检验,看起来美好又真实。但算法代码多为句法、表征、符号等技术语言,普通公众很难直观地对其中的逻辑进行验证,且算法技术的复杂程度并非任何人都可理解。即使公开算法代码和数据等信息,也并不意味着就可以重现算法决策过程。如Reddit公开其排名算法的某一部分,专家们对该部分完全公开算法的理解仍存在严重分歧,并不能完全理解算法的工作原理和决策过程。由此可见,具有专业技术背景的算法专家都难以从公开的算法代码和数据等信息中理解或核验算法是否存在偏差,妄图希冀一般社会公众监督算法运行,无疑过于理想化。

另一方面,当前算法透明论支持者的出发点是将算法视为静态的、不会“进化”的系统。但随着机器学习技术的成熟,学习算法早已不再是科幻。算法已超越“工具性”的假设,且在被设计出来后可根据具体应用场景、输入数据和预期结果的调整自动改变数据权重,优化算法,直至能够达到预期效果。机器学习技术的融入在将静态算法转变为动态算法的同时,也极大程度加剧了算法的复杂性。如不解决技术障碍,单纯公开算法代码和数据等相关信息,难以达到提高算法透明度的目的。

算法透明的是是非非,难以三言两语道尽。算法透明支持论和反对论的博弈并未清晰地给出算法透明是否能破除算法黑箱的结论。但真理总是越辩越明,对算法透明亦是如此。基于算法透明支持论和反对论的博弈,可将算法透明的争议归为三个问题:一是算法透明是否真的有效?二是算法透明的弊端能否克服?三是算法透明的效果何以保障?第一个争议回应的是算法透明的功能与效果问题,第二个争议对应算法透明与商业秘密、个人信息保护和规避算法的紧张关系,问题三则是算法透明如何实现的问题。

三、算法透明的功能定位:有限效能的正确认知

算法透明反对论认为,算法透明能否破除算法黑箱是值得怀疑的。即算法与机器学习技术的复杂性可能导致算法透明难以实现:一方面相关技术的专业性导致众人理解算法存在困难;另一方面机器学习算法的加入会导致算法运行复杂化和不规则化。的确,算法的复杂性已是横亘在众人面前的一座难以逾越的高山,若再加上机器学习的复杂与多变,无疑是“雪上加霜”。仅依靠公开算法代码等信息,就欲回溯算法决策的过程、审视是否存在算法妨害,有异想天开之嫌。

但并非因算法和机器学习技术纷繁复杂,就不对算法妨害进行防范,就不对算法进行治理,就不对算法相对人合法权益进行保护。正如阿里尔·扎拉奇和莫里斯·斯图克所言,算法在透明化的环境中运行对算法相对人最为有利,不仅能够降低检索成本还有利于避免算法致害。既然算法妨害风险确实存在,还可能损害算法相对人合法权益,那么对算法的治理也就应当推进,切不可因算法透明的实现之旅道阻且长,就放弃对算法透明的追求。只不过,碍于算法与机器学习的技术障碍,不可对算法透明抱有过大的期望。质言之,算法透明仅应是算法治理或避免算法妨害众多措施中的一个,其无法单独完成算法治理任务,而应与其他措施共同营造健康有序的算法环境。

首先,算法透明应是算法治理的重要步骤和目标。算法因机器、潜入、架构和资本优势,横跨虚拟和现实世界、公权和私权领域,隔绝公众的理解,为算法使用者缔造起“算法霸权王国”,改变了算法使用者与算法相对人的平等地位和对等权利状态,甚至会侵蚀他人合法权益。为了规范算法使用行为,避免算法权力成为法外之权,对算法透明的要求实属应当。一方面,算法透明应是算法治理的重要步骤。公开算法代码、数据和决策树等信息是促进算法透明化的重要方式,不仅能够使中立第三方接触到算法或窥探算法内部原理,还可在一定程度上检验算法是否存在算法妨害。另一方面,算法透明不仅作为算法治理的重要步骤,也是对算法治理的一种总体要求,即要实现算法决策或算法运行的透明化。

其次,算法透明的作用是为算法审查奠定基础,促进对算法的理解。一方面,算法透明旨在为算法审查或检验是否存在算法妨害提供助力。因此,算法透明作为算法治理的目标和方式之一,就是通过公开算法代码、数据和决策树等信息,供中立第三方核对或检验算法决策的真实性和是否存在算法妨害。即根据所公开的数据来映射输出,核对算法决策的真实性;通过代码或决策树来检验是否存在算法妨害。另一面,算法透明和算法解释并非同一维度的要求。算法解释是使算法相对人理解算法决策的制定过程和为何作出此种决策,以及决策的意义;算法透明要求公开算法代码、数据和决策树等信息,这些信息是理解算法或算法决策的重要数据,通过算法透明有助于算法解释的实现。

最后,应理性看待算法透明的有限效能。算法透明作为算法治理的手段和目的之一,能够在一定程度上促进算法治理。但碍于算法和机器学习技术的复杂性,算法透明可能实现的效果有限。诸如算法与机器学习技术的复杂性、披露对象的技术能力和干扰披露等问题会克减算法透明的效能。一是算法与机器学习技术的复杂性导致无法通过算法代码、数据和决策树等信息完全还原或重现算法,影响算法透明效果的实现。二是算法代码等信息的公开对象的技术能力决定了其能否理解算法的工作机理,对非专业人士来说,即使有算法相关信息也难以明白算法原理,更何况一般社会公众。三是算法透明要求公开算法相关信息,在这些信息中并非所有的信息均是重要信息,部分信息可能会干扰对算法的理解。

算法透明除是算法治理的一种理念外,也是一种算法治理举措。虽可借助公开算法代码、数据和决策树等信息促进算法透明,但因算法技术与治理模式的原因,应理性、正确看待算法透明所能实现的效能。从技术角度看,算法与机器学习技术的复杂性、算法相关信息披露对象的技术素养和披露干扰等因素,会限制算法透明的功能。从算法治理模式角度看,在算法社会,算法妨害的风险无处不在,单纯依靠事前治理模式难以实现算法的良善之治,应建立起事前、事中和事后全方位的算法规制理念。算法透明作为一种事前的治理方式,其所能实现的效能有限,不可过分夸大其作用。因此,算法透明确实可促进算法治理,但其所能实现的效能有限。

四、算法透明的弊端消解:限制信息公开的范围

反对算法透明的主要理由之一是算法透明的弊大于利,即公开算法代码等信息将减损算法的商业秘密权益、导致公众规避算法和个人信息安全风险。尽管这些风险或弊端确实可能因公开算法代码等信息而存在,但并非不可被消除或控制在合理的范围内。实质上,上述三种隐忧的结症是算法代码等信息公开范围的不可控性。也就是说,当算法代码等信息可被社会公众随意获取时,算法的商业秘密属性、算法的可规避性和个人信息保护会受到威胁。因此,解决上述问题的核心在于如何有效减小公开算法代码等相关信息的负外部性。

从规制方式的角度看,减小公开算法代码等信息负外部性的路径有二:一是“行为限制”型方式,旨在利用其他方式约束知晓算法代码等相关信息者的信息使用行为,避免知情者利用所知信息作出有损他人合法权益之事;二是“主体限制”型方式,即限制可接触算法代码等信息的人数,缩小相关信息的公开范围。尽管存在上述两条规制方式,但是否均能合理实现目的则需仔细考量。

就“行为限制”型规制方式而言,以不限制算法代码等信息的接触人数和接触范围,而是采取其他方式规制信息知悉者使用信息的行为,看似十分契合算法透明的要求。但若仔细考量如何实现控制信息知悉者使用相关信息的行为,将陷入可行性较差的泥沼。首先,算法代码等信息一旦被公开,算法的商业秘密属性就遭受破坏,算法所有者的商业秘密权益、竞争优势将不复存在,且难以救济。其次,算法所使用的数据可能涉及个人信息或隐私,一旦公开也将造成不可挽救的损失。再次,算法代码等相关信息的无限制公开也就意味着不特定人将掌握这些信息,潜在的算法相对人利用上述信息刻意迎合算法而制造虚假数据,会不公平地规避算法,且这些行为具有高度隐秘性,难以被发现。最后,采取何种措施来规范或控制算法相关信息知悉者的信息使用行为也是另一难题,这不仅涉及可行性、合理性问题,还需考量所采取措施可能实现的效益与所付出的成本问题。因此,采取“行为限制”型规制方式来消除算法透明的弊端,将遭遇可行性和合理性、成本与效益的诘问。

反观“主体限制”型规制方式,通过减少算法代码等信息的接触者或公开范围,或许又是另一番景象。“主体限制”型规制方式的可行性远高于“行为限制”型:一是减少算法代码等信息的公开范围所付出的成本远小于“行为限制”型规制方式的实施成本;二是限制相对集中且数量较少的信息知悉者能够有效解决公开算法代码等信息所引起的侵害商业秘密利益、个人信息和隐私保护,以及规避算法的问题。正如Cary教授所言,提高算法透明度也不应以牺牲商业秘密为代价,而通过限制信息知悉者人数并禁止泄密可较好协调算法透明与商业秘密制度、个人信息保护的关系。一方面,数量有限的算法代码等信息知悉者负有保密义务;另一方面,若信息知悉者未尽到保密义务,因知悉者人数较少,追究法律责任相对较易。

不过,相较于“行为限制”型规制方式所能实现的算法代码等信息的全社会性“大范围公开”,“主体限制”型仅能做到算法代码等信息的“小范围公开”。由此产生的疑问是算法透明效果是否被限缩?回应此疑问,需厘清算法透明是以向社会公众公开算法代码等信息为标准,还是以公开代码等信息以便对算法进行审查为目的。事实上,法律透明并不要求公开所有的信息。算法透明亦是如此,即不要求公开与算法相关的全部信息,也不要求社会公众均能获取算法代码等信息。算法透明的本意是通过公开算法代码、数据和决策树等信息,以便中立第三方可对算法进行审查,验证输入和输出的一致性、算法的工作原理和是否存在算法妨害等。由此可见,公开算法代码等信息是以审查算法,而不是以向社会公众公开算法代码等信息为目的。因此,若采取“主体限制”型规制方式,只需保证向相对集中且数量较少的人公开算法代码等信息能够满足对算法进行审查的目的即可。换言之,需要确保中立第三方在知悉算法代码等相关信息后,能够满足社会公众对算法审查或算法透明的要求,即社会公众信任中立第三方给出的算法审查结果。至于如何确保中立第三方机构给出的审查结果是可信任的,详见后文。

五、算法透明的实现路径:成立可信的审查机构

算法透明虽可促进算法治理,但算法等技术的复杂性会克减其治理效果。可以说,对算法和机器学习技术的掌握和理解,关系到算法透明功能的实现。但“在目前的技术水平和社会结构下,编写和阅读代码是一项专业技能,采用透明性方案将代码公开给一般使用者或普通公众并不能使其获得正确的理解”。如何消除算法和机器学习技术的复杂性对算法透明功能实现造成的障碍,成为提高算法透明度的决定性因素之一。此外,如前文所述,算法透明弊端的消除依赖可信任的中立第三方算法审查机构,如何建立可信任的中立第三方机构,则是提高算法透明度的决定性因素之二。好在上述问题的解决方案具有共性,即可依靠建立具有相关技术能力且可信任的中立第三方机构解决算法和机器学习的技术复杂性难题:要求可信任的中立第三方机构中负责审查算法的人员需具有算法等专业技术知识。至此,如何建立可信任的中立第三方机构及提高第三方机构的权威性和公正性,确定相关人员技能要求,则是需重点关注的问题。

第一,如何建立中立的算法审查机构。成立可信任的算法审计机构(trusteed auditor)是提高算法透明度的重要举措。但究竟是新设中立第三方机构还是授权既有机构审查算法,则需审慎思考。在信息网络安全工作如火如荼进行的大背景下,网络安全和信息保护、信息系统等级认定与安全防护等分工早已明确。考虑到授权既有机构审查算法远比新设机构更具效益优势,而且算法审查与网络信息安全、信息系统安全防护等工作存在重叠交叉,授权既有机构履行算法审查职责更为妥当。此外,授权信息安全监管机构审查算法比要求算法使用者自行审查或委托社会其他机构审查更具权威性。但究竟授权哪一机构对算法进行审查,则应结合算法使用的具体领域进行划分。例如,在电子商务领域的算法审查机关应是工商行政管理部门,在银行等金融领域则应是银监会或证监会等部门。

第二,算法审查机构相关人员的技能要求。考虑到算法等相关技术的复杂程度和算法代码等信息公开对象的技术素养是制约算法透明成效的关键性因素,算法审查须以掌握算法和机器学习等技术并能理解相关技术原理为前提。因此,就算法审查机构工作人员而言,应具有相关专业技术背景且最好具有相关实务经验。一方面,掌握算法等相关技术在一定程度上可克服算法技术复杂性的难题,能够利用算法代码、数据和决策树等信息撬开算法黑箱;另一方面,要求算法审查人员具有相关技术背景,可减轻算法相对人或社会公众对算法技术复杂性的畏惧心理,提高社会公众对算法审查的信任度,有助于算法透明工作的推进。尤其是具有相关技术实务经验的审查人员,更能懂得算法的原理和应用场景的特殊性,对算法审查大有裨益。

第三,算法代码等信息的公开。算法透明的目的是对算法进行审查。审查的前提是审查机构知晓有算法的存在和算法代码等相关信息。因此,为便于管理,应要求算法使用者就其使用的算法向审查机构备案登记。这不仅可以使算法审查机构知晓算法系统的存在,还可明确算法审查机构的监管基础。就算法代码等信息的公开而言,在算法登记时应将算法的原始代码、基本原理、预期目的和使用场景等信息向审查机构呈送;在算法使用过程中,如算法版本迭代后,应及时向算法审查机构报备。考虑到算法会随机器学习和应用场景的变化进行调整,当算法相对人申请对算法审查时,算法使用者必须将作出相应决策的算法版本和信息提供给算法审查机构。当然,算法审查机构及其工作人员对因算法审查所知悉的信息负有保密义务,避免损害相关权利人的合法权益,否则应承担相应法律责任。

第四,算法审查的启动与反馈程序。算法审查的启动程序和结果反馈程序分别关系到审查启动条件和结果公开问题。就算法审查的启动程序而言,究竟是以算法审查机构主动审查为前提,还是以算法相对人申请审查为限?笔者认为,算法审查应以审查机构主动审查和被动审查相结合的方式进行。具体而言,当算法相对人申请对算法进行审查时,算法审查机构应对算法进行审查;算法审查机构也应定期或不定期对所监管领域的算法进行审查,以保证算法的正当运行。就算法审查结果的回馈程序而言,审查结果应以通俗易懂的语言向全社会公开,保证社会公众的知情权。但在公开结果时,必须尊重算法使用者的商业秘密、相关数据主体的信息安全和隐私,以及其他相关者的合法权益。

第五,提高算法审查机构的可信度。将算法代码等信息的公开范围限缩至算法审查机构,可能有损算法透明的效能和社会公众的信任度。因此,如何弥补公开范围限缩导致的算法透明效能损伤和社会公众信任危机,成为影响算法透明功能实现的关键。具体可从以下方面着手:一是加强对算法审查机构的监督。算法审查是一种“权力”,权力存在的地方就会产生“腐败”。监督则是控制权力的有效方式之一。可从内部监督与外部监督两个维度加强对算法审查机构的监督。其中,内部监督要求算法审查建立一套完整的内部程序,记录每个环节的数据,以便事后对审查行为进行复查;外部监督是允许申请算法审查者和算法使用者,以及社会公众对审查机构的行为进行监督。二是建立完善的算法审查结果公开渠道。算法审查结果的公开是保证算法透明的重要举措,不仅关系到算法审查申请人和算法使用者的切身利益,还关系到社会公众的知情权。因此,算法审查结果的公开应采取向算法使用者、算法审查申请者和社会公众公开的三重路径:向算法审查申请者公开是为保护其合法权益的关键;向算法使用者公开有助于帮助其完善和改良算法;向社会公众公开是保障其知情权和监督权顺利行使的前提。

结语

在算法社会,算法的黑箱属性在赋予算法使用者算法权力的同时,正逐步侵害算法相对人的合法权益。为治理算法和保护算法相对人的合法权益,以公开算法代码等信息为手段的算法透明措施,在算法治理中扮演着日益重要的角色。但碍于算法与机器学习等技术的复杂性、信息披露对象的技术水平、商业秘密制度等阻碍因素,算法透明的效能受到减损。本文从功能定位、弊端消除和功能实现三个角度分析算法透明的有限效能,希望通过成立可信任的算法审查机构消除公开算法代码等信息的弊端,克服实现算法透明功能的障碍,以期其能在算法治理中发挥更大的作用。

 相关阅读 ·


1.《2020年“数字法治”项目立项情况》

2.《高完成:自动驾驶汽车致损事故的产品责任适用困境及对策研究》

3.《陈俊秀:“机器意识”何以可能》

4.《韩旭至:人工智能法学研究的批评与回应》

 商品书目 ·


微信号 : DigitalLaw_ECUPL

探寻数字法治逻辑

展望数字正义图景

数字法治战略合作伙伴:理财魔方

北京市竞天公诚律师事务所上海分所


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存