张凌寒:算法自动化决策与行政正当程序制度的冲突与调和
The following article is from 上海市法学会 Author 张凌寒
算法自动化决策与行政正当程序制度的冲突与调和
作者简介
张凌寒 北京科技大学文法学院副教授,法学博士、博士后
行政治理中存在着两种信息不对称:行政机关与治理对象的信息不对称、行政机关与行政相对人的信息不对称。算法自动化决策嵌入行政活动,一方面极大地缓解了第一组信息不对称,产生了行政权力增强效应。另一方面,算法或压缩行政活动的各个环节,或作为内部行政决策,逃避行政正当程序制度的控制。从信息论角度,行政正当程序中的告知、申辩陈述、理由说明等环节是信息发送与沟通工具。两种信息不对称的此消彼长使得公民权利受到算法自动化决策的侵蚀,“权力-权利”格局严重失衡。因此应以解决行政相对人信息不对称为宗旨,坚持和发展适应算法治理时代的正当程序制度,尤其是行政公开原则、公众参与原则与说明理由制度。坚持和发展行政公开原则,应增强算法透明度、衡平行政公开与商业秘密制度、并规范信息公开方式;坚持和发展公众参与原则,应事前开展算法影响评估、重视陈述与申辩环节;坚持和发展说明理由制度,应赋予相对人获得算法解释的权利,并明确说明理由的内容与标准。
关键词
信息不对称 行政正当程序 算法解释 技术正当程序 算法自动化决策 “权力-权利”格局
自20世纪50年代起,算法自动化决策即开始被应用于政府的公共行政。 在人工智能时代,自动化决策借助深度学习、大数据等技术,以辅助行政裁量、预测调配资源的方式,嵌入了政府的行政治理中,这从深层撼动了传统行政活动的运行规律和基本范式。更重要的是,这种变化不仅体现在政府行政流程、效率的角度,也体现在了以保障公民权利为核心的行政正当程序层面。
围绕具体行政行为构建的行政程序从“人”的行为出发,而非机器。算法自动化决策对传统行政正当程序带来了诸多挑战。例如,早在2005年,杜宝良案中行政相对人反复在同一地点违章105次却未收到行政机关通知,引发了对于全自动行政行为正当程序缺失的广泛关注。更重要的是,算法可以提前预测风险而调配行政资源,这一活动却完全不受正当程序的控制。以禁飞名单为例,算法根据既往违法人员的特征,预测高风险人群并禁止其登上飞机。换句话说,被禁飞的人并非已经违法而是有违法风险。但是,直到被阻止登上飞机之前,公民并不知晓其被列入名单,也不知晓列入名单的原因与过程。保证行政活动可信和正当的行政正当程序面临失灵的风险。
在算法自动化决策逐步广泛深度嵌入行政活动的背景下,如何坚持、修正和发展正当程序原则是亟待研究的重大议题。笔者从保证公民实体权利与程序性权利、通过正当程序限制公权力滥用的基本立场出发,在行政权力与公民权利互动的理论框架下,剖析算法自动化决策对行政正当程序的挑战,以及立法者应如何应对行政正当程序实现的制度障碍与技术障碍。
一、算法治理嵌入行政活动的双重效应
算法自动化决策从信息输入、信息处理与信息输出三个层面嵌入行政活动,并改变了行政活动的范式,使得行政机关可以通过风险预测提前配置行政资源。这极大地加强了行政机关对治理对象信息处理分析能力,产生了行政权力的增强效应。但与此同时,算法自动化决策压缩行政活动环节,架空了行政正当程序;并且以内部决策的角色参与行政活动,使正当程序控制失灵。此消彼长下,形成了“权力-权利”失衡的格局。
(一)算法嵌入行政治理的行政权力增强效应
行政活动中一直存在着行政机关与治理对象的信息不对称,即政府对社会活动和治理对象信息掌握不足的情况。许多行政制度是为了缓解信息不足的矛盾而建立起来的。例如由于行政机关检查与发现违法的情况有限,无法获知所有违法行为,所以罚款额度既要有效惩罚被发现的违法人,也要威慑潜在违法者。例如著名经济学家加里·贝克指出,最佳的惩罚额度应等于损害除以发现的概率。即,如果只有1/4的发现机会,那么最佳罚款应该是损害的四倍。在现实生活中,如果闯红灯的交通违法行为的罚款金额200元是以被发现概率为1/4而设立的,那么当交通管理部门设置的闯红灯摄像可以实现违法行为100%被发现时,罚款金额应相对降低。
算法自动化决策的应用使得这种信息不对称得到了极大缓解,有效增强了政府的权力运行的广度、深度和密度。信息技术在我国行政活动中应用已久。2019年以来,以算法为代表的信息技术应用进一步扩展,甚至参与裁量活动领域并进行风险预测,改变了行政活动的范式。2019年1月发布的《国务院办公厅关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》中明确提出:“一是要推动行政执法裁量的决策辅助系统,规范行政自由裁量权,确保执法尺度统一;二是要开发风险预测系统,提前预警、检测、研判,及时履行政府职能、提高行政精准性。” 在算法自动化决策的推动下,政府对信息的处理能力发生质的飞跃。
首先,政府收集信息数量和质量得到了极大提高。如2016年上海市政府搭建的事中事后综合监管平台实现了各部门收集信息的共享,已汇集各类信息247万余条、累计提请联合惩戒156万余条。 海量信息有效助力于行政检查、行政命令等多种行政活动。如我国《道路交通安全管理法实施条例》要求营运客车、货车安装使用行驶记录仪,为行政执法提供行驶速度、连续驾驶时间等信息。其次,政府处理、输出信息能力增强,因此行政执法力度与强度也远强于过去。算法自动化决策可直接统筹信息收集、分析处理与输出环节,直接作出对行政相对人产生效力的命令、裁决等活动。以广东省食品药品监督管理局为例,互联网药品信息服务资格证书核发、变更、换发等项证照都已实现电子化。 最后也最重要的是,政府通过算法自动化决策对行政活动大数据的分析,预测评估行政相对人的风险指标,在违规发生之前干预。如北京市城市管理综合行政执法局通过对全部投诉举报电话进行定量分析,得出每年夏季晚上某固定时段占道经营违法行为上升的结论,结合指挥系统的位置信息,调配执法力量。
作为一个信息函数,行政效能受到信息采集、传输和使用质量的影响。算法自动化决策有效缓解了政府与治理对象的信息不对称,成为行政权力实现和有效运行的能源和催化剂,也在此基础上强化了其说服权力行使对象的能力。
(二)算法应用导致的行政正当程序失灵效应
算法自动化决策如何造成了行政正当程序失灵?如前所述,算法增强行政活动中收集、处理和输出信息的各个环节,从两方面改变了行政活动的传统范式:其一,反应型算法自动化决策压缩行政活动各环节,直接实现行政活动的半自动化与自动化。自动化行政在系统内部瞬间完成,无法分离活动的程序、步骤和方式,而是将所有信息与内容糅杂进既定的算法之中得出结果。其二,预测型算法改变传统认知范式,根据过去的历史数据推断出未来的趋势。算法可以用来预测风险,先发制人地对行政资源进行调配,事先引导和部署行政活动。
首先,反应型算法对行政活动环节的压缩,使得正当程序制度无用武之地。反应型算法是算法自动化决策应用于行政活动的常见模式,其基本模型为收集数据-匹配条件-作出决策,具有较强的工具性特征。例如,最简单的反应型算法为登录邮箱时输入密码——密码错误——拒绝登录。在行政活动中,名为专家系统、业务规则引擎、决策支持工具等的算法均为反应型算法。通常这些系统包含三个主要组件:其一,相关业务规则(即立法、政策或程序性业务规则)的知识库或规则库;其二,一个独立的推理引擎,该引擎使用推理得出结论;其三,用户界面,向用户呈现信息,并将用户相应提供给推理引擎以得出结论。行政机关可实现行政行为的半自动化或者自动化,甚至如果能梳理好行政执法依据、行政裁量基准、行政执法流程、行政文书整合入人工智能系统,则有可能作出自动化的行政执法决定。
较为常见和简单的例子是交通违章的自动识别。算法自动化决策可对监控设备采集的数据进行智能识别和分析,按照技术标准形成车辆违法数据,继而经过交警部门的审核,对违法车辆进行处理,以违法处理单的形式将处罚通知送至违法者。除了人为加入的审核环节,其他环节技术上均可在瞬间糅杂完成。由于算法对行政活动程序的压缩,原有的按照人的活动环节设立的诸多行政正当程序发送信息的步骤均被省略。
其次,预测型算法对治理对象的预测,实质上架空了行政正当程序。算法自动化决策给信息技术带来的改变,根本在于对信息认知方式的变化。传统认知方式下,信息技术围绕特定认知对象或假设进行信息搜集,对已有的信息作出特定反应,仍具有较强的工具化特征。人工智能时代的信息认知方式下,算法自动化决策具有数据挖掘功能,一方面提高了数据计算能力,能够从不完全信息中提炼出更多有效信息;另一方面,可以进行趋势风险的研判和预测。算法自动化决策信息认知方式的改变,产生了可以预测风险的预测型算法。
预测型算法与反应型算法有着逻辑上的根本区别。虽然反应型算法的动态特性使得一旦发生违规,算法就可立即进行干预。但是预测性算法可以在风险发生之前调配资源进行规避,实现“好钢用在刀刃上”。例如江苏省税务机关运用大数据技术,预测税务风险较高的行政相对人,据统计一年稽查次数减少97%合计8000多次。在此类行政活动中,预测型算法已成为事实上的行政活动核心流程。
然而,预测型算法由于其仅仅是内部行政决策,无法受到正当程序的控制。从时间点上来说,决策发生在具体行政行为发生之前,从外形上来说并不具备具体行政行为的要件,显然也并非抽象行政行为,只能作为行政机关的内部决策。内部行政决策本身即缺乏正当程序的控制,由于行政决策更多地与政治过程相关联,导致它并未纳入法治的轨道。即使近年来,行政决策亦要被纳入法制化轨道已经成为国务院和地方各级政府的基本共识,提出要以正当程序控制行政决策。预测型算法依靠运算在算法黑箱内部得出结果,完全规避了公众参与、专家论证等信息交换和披露的正当程序控制。
算法自动化决策一方面增强了行政权力,一方面却侵蚀了正当程序制度。行政正当程序的缺失,不仅可能造成了行政相对人实体权利消减的结果,更直接损害了其程序性权利。在行政活动中,行政程序具有不同的价值位阶,可分为“工具性价值”与“构成性价值”。工具性行政程序关注行为活动的整体流程,目的在于提高行政效率,例如关于行为作出期限和方式的规定;构成性行政程序指的是具有特殊价值追求的制度构造,如听证、理由明示等。 日本学者认为:“违反程序法上所规定的四项主要原则(即告知和听证、文书阅览、理由附记、审查基准的设定与公布),至少应解释为构成撤销事由。”在我国行政法上,进行陈述、申辩或者参加听证是我国《行政诉讼法》规定的具有构成性价值的正当程序,此类程序的缺失即使不影响行政相对人的实体权利,也具有效力瑕疵。
毫无疑问,无论行政活动如何借助科技的力量变得便捷与高效,这类构成性行政正当程序都不应该成为被省略的对象。这不仅造成了行政相对人实体权利的损害,也是程序性权利的缺失。行政相对人在行政活动中获得知情、陈述申辩、得到理由说明的各项权利,无法得到保证。在此消彼长下“权力-权利”格局严重失衡。
二、算法自动化决策与行政正当程序的冲突
从信息论的角度看,行政正当程序本质是行政机关向行政相对人发送信息的工具。无论是行政活动前的行政公开、听证,行政活动中的通知、听取申述与申辩,以及事后的说明理由,目的都是在行政机关与行政相对人之间建立信息沟通机制。算法自动化决策的不透明性遮蔽了行政公开原则,算法设计运行的技术垄断架空了公众参与原则,算法决策黑箱无法为相对人提供理由说明,算法自动化决策与行政正当程序产生了严重冲突。
(一)行政正当程序制度的信息工具功能
正当程序制度一向被认为是规范行政权力运行、保障公民合法权利的重要制度。从信息论角度观察,正当程序制度实际上是一种信息工具,目的在政府与行政相对人之间建立信息沟通机制,以缓解行政相对人的信息不对称,从而达到保障权利的制度目的。行政正当程序具有信息发送的功能,可缓解行政相对人的信息不对称,本身就是独立于实体权利的程序性权利,蕴含着实现诸如参与性通知、程序理性和人道性等效能。
正当程序的基本含义是当行政机关作出影响行政当事人权益的行政行为时必须遵循法律的正当程序,包括事先告知相对人,向相对人说明行为的根据、理由,听取相对人的陈述、申辩,事后为相对人提供救济路径等。从信息工具的角度观察,正当程序制度的几项核心内容均系为了解决行政机关与行政相对人的信息不对称问题。如果把行政行为的过程分为作出前和作出后两个阶段,正当程序制度在行政行为作出前要求行政机关对相对人发送足够的信息,在作出后亦要求提供纠正信息的路径。
第一,正当程序制度包含着行政活动前的“信息发送”工具。例如要求行政机关对相对人有合理的告知。所谓合理的告知,不仅是指相对人应得到被处理事项的合理说明,也包括其在合理的时间内被告知。没有告知或不恰当的告知,将影响相对人行使程序和实体上的权利。还要求说明理由,即行政机关作出任何行政行为,特别是作出对行政相对人不利的行政行为,除非有法定保密的要求,都必须说明理由。
第二,正当程序制度包括行政活动中的“信息沟通”工具。即,强制要求行政机关必须获取行政相对人的信息。例如,要求行政机关作出任何行政行为,特别是作出对行政相对人不利的行政行为,必须听取相对人的陈述和申辩。行政机关作出严重影响行政相对人的合法权益的行政行为,还应依相对人的申请或依法主动举行听证。
第三,正当程序制度包括行政行为后的“信息纠正”工具。例如,要求行政机关事后为相对人提供相应的救济途径,其目的是为了防止行政行为错误,给相对人获得“信息纠正”的机会。以上种种正当程序制度的要求,都是力图解决行政机关与相对人信息不对称的情况。而只有符合正当程序的行政行为方为合法有效,也充分说明了信息工具的缺失会直接影响行政行为的法律效力。尽管行政机关与相对人之间的信息不对称无法最终消除,但通过正当程序“发送信息”是法律对行政行为的基本合法性要求。
从这个角度去理解正当程序制度,会发现政府信息公开制度、行政听证制度、说明理由制度、公众参与制度等本质上均为信息工具。通过程序来强制性要求政府对公众披露行政活动中的信息,达到控制公权力保障公民权利的目的。20世纪中期以后,随着各国行政程序立法的发展,正当程序原则在世界许多国家如奥地利、意大利、西班牙、德国等得到了确立和广泛使用。从程序控权取代实体控权,从注重行政行为的合乎实体法规则向注重行政行为的合乎程序性转变,以正当程序模式的行政法来弥补严格规则模式之不足,已经成为当代行政法的主流。其背后的考量,是行政行为所需的信息越来越庞杂,依靠实体法规则已经无法囊括,只能退而要求在程序法规则上满足“发送信息”的要求,交由具体行政活动中相对人获得的信息来保障公权力在合法范围内运行。
行政正当程序的信息发送功能由于算法自动化决策阻碍无法实现。无论是反应型算法压缩行政程序各个环节造成行政正当程序的缺省,还是预测型算法直接作为内部决策规避行政正当程序,最终均导致行政相对人无法接收到行政机关通过行政正当程序发送的信息。具体而言,尤其以行政公开原则、公众参与原则与说明理由规则为甚。
(二)算法不透明遮蔽行政公开原则
20世纪中期以后,公开、透明、公众参与已构成现代正当法律程序的基本的、甚至是不可或缺的内容。美国、欧盟诸多成员国及世界其他国家与地区等近50个国家和地区,都在20世纪60年代以后或本世纪初陆续制定了信息公开法和与美国“阳光法”类似的透明政府法。行政公开指的是行政机关的活动要坚持信息公开,除国家秘密、商业秘密与个人隐私的内容,应由行政机关向社会公众进行公开。
算法导致的行政公开原则缺失可分为两类原因:不愿公开与公开不能。具体而言,第一类原因是算法的采购、设计与运行,甚至算法的存在本身,政府基于各种考虑可公开而不愿公开。私营公司主张公开算法侵害商业秘密,政府官员可能会担心公开披露的算法会被篡改或规避,阻碍行政目的实现。2017年年底纽约市政府开展的世界首次算法监管活动堪称典型。纽约市算法监管工作组召开了三次会议,直到2019年4月仍未就“算法自动化决策”的定义与范围达成共识,各政府部门也拒绝提供使用的算法清单,仅肯提供示例。此次监管活动也因未取得成效受到了广泛批评。
第二种是“算法黑箱”造成的公开不能。“算法黑箱”是指在算法决策数据输入、计算和输出的三个环节中,分别面临着三个难题:数据收集由于公共利益豁免知情同意规则而不透明、算法决策过程由于商业秘密保护而不公开、数据分析结果与决策之间转换不公布。
算法不透明可由于政府严重的技术依赖关系形成一个恶性循环。政府不仅需要购买算法系统,还需要私营公司提供长期技术支持以便对算法系统运行进行维护和改造。私营公司为了垄断相关技术领域,会更加排斥将算法软件技术开源或公布。这进一步导致了某个专门的算法系统长期垄断某行政部门的行政活动技术支持,更加缺乏来自社会公众的监督。2014年美国一项针对政府工作人员的调查显示:“联邦政府工作人员没有足够的数据分析技能将复杂的数据集转化为决策者所需要的信息……高达96%的受访者认为他们所在部门存在数据技能短板。”因此,调和算法自动化决策与行政信息公开的原则需平衡的三组利益:要求企业披露算法的相关信息,同时又不损害商业秘密和竞争优势,同时又能够确保公众监督。
(三)技术垄断架空公众参与原则
行政正当程序中的公众参与原则极为重要,“某种形式的听证”被认为是程序正当性过程最基本的要求,是行政机关提供正当程序的最低限度。然而,算法自动化决策系统由私营公司“技术垄断”,公众的参与权难以得到保障。
公众参与原则的核心理念是“听取公众意见”。具体而言,包括两个层面:第一,公众应有权利参与行政活动,这体现了正当程序的公共意志形成功能;第二,在具体行政行为中,应充分听取当事人的陈述和申辩。在公众参与的过程中,要设置专门的程序如听证保证公众能够参与,并要保证参与各方信息的对称性。公民的有效参与,意在通过自己的行为影响某种结果的形成,而不是作为一个消极的客体被动地接受某一结果。在算法广泛嵌入行政活动的背景下,公众参与原则面临多重障碍。
第一,公众参与行政活动面临私营企业技术垄断的障碍。算法自动化决策本质是对于行政资源的分配,但这一过程改变了政府资源分配和监督行政相对人的一贯做法,转而由私营企业承担核心角色。在此次疫情防控期间,各地政府依靠私营公司的技术力量进行健康码的设计和运行工作,并大有将健康码运用于社区、企业、群体评价等社会公共活动中的趋势。“智慧城市”也极好地体现了“公共权力私有化”这一趋势。政府部门的数据、权力和私营公司的技术力量结合,发展出了主宰城市运行的智能系统。技术公司垄断了硬件与算法系统的开发、设计和使用,却拒绝对公众公布算法收集处理数据的权限和过程。如迈阿密市政府与照明技术公司签订为期30年的合同,使该公司可以免费安装装有摄像头和牌照读取器的灯杆,为迈阿密警察局收集和处理信息,而该公司可以使用这些数据。政府大多数情况下需要以技术服务合同的方式向私营企业购买算法系统的设计和运营服务,因此算法自动化决策(例如专家系统、自动行政)的采购和设计处于完全不透明的状态,缺乏公众参与的听证环节。公众没有机会在行政活动中融入自身的价值判断和权利主张,更无法实现对行政权力滥用的程序性控制。
第二,自动化(半自动)行政行为根据算法设定的规则运行,这一过程由行政机关与技术公司垄断,没有为行政相对人提供陈述与申辩的机会。由于缺乏有意义的通知,并且政府倾向于预设算法结论是正确的,这共同造成了相对人陈述与申辩环节的缺失。当反应型算法应用于行政处罚等可能产生不利于行政相对人法律后果的行政行为时,缺乏陈述与申辩环节是严重的程序瑕疵。
由此可见,算法自动化决策既回避了行政决策的公众参与和听证,也消解了具体行政行为层面的当事人陈述和申辩的程序,造成了公众参与原则的缺失。如果一项技术是服务于社会中的大多数群体,政府的作用就不可替代,无论作为社会系统的设计者还是行业领域技术创新的监管者,政府都应承担起责任,打破技术中心主义的局限。
(四)算法黑箱无法提供理由说明
正当程序中的说明理由制度是指公权力机关在做出决定或者裁决时,应向其他利害关系人说明法律依据和事实状态,及通过相关法律和事实状态进行推理或裁量而做出结论的过程,从而表明理由与最终该决定的内在联系。尤其是行政机关作出不利于行政相对人的行政行为时,除非有法定保密的要求,都必须说明理由。我国《行政处罚法》《行政许可法》等法律法规均明确规定了行政行为说明理由的要求。说明理由制度是正当程序中的重要构成要素,违反说明理由义务可能直接影响到决定或者裁决的效力。
预测型算法作出行政决策的时点是在行政对象作出行为之前,依据是大数据的相关关系而非因果关系,因此无法提供理由说明。由于大部分深度学习推荐算法将数据变换到一个隐含空间,可以计算如何无限接近算法设定的目标,但是很难提供直接的决策理由。 尤其是预测型算法在行政治理中的应用,将行政对象的目标与既有数据对比,应用数据分析来发现特征和结果之间的相关性,并利用这个分析来生成可能不容易解释或理解的预测。一个正当的行政行为要求理由的公开,并公布作出行政行为的证据。而由于预测型算法的时间点在事件发生之前,所以尚无证据存在。这种先验性使得合法正当行为所需要的具有证明力的证据不可能存在。
算法预测指导的行政活动对行政对象挑选并进行甄别,却无法提供实质性证据。这实际上构成了对行政对象区别性的不利对待,可能违反法律面前人人平等的原则。典型的预测型算法应用为“预测警务”,如北京市公安局怀柔分局的 “犯罪数据分析和趋势预测系统”收录了怀柔9年来一万余件犯罪案件数据。2014 年 5 月,该系统预测提示:近期泉河派出所辖区北斜街发生盗窃案的可能性较高,派出所加大对该区域的巡逻,并于5月7日抓获一名盗窃汽车内财物的嫌疑人。 预测型算法会在治安高风险地区时会相应投入更多警力,使得该地区的治安违法行为更容易被查到,导致风险级别进一步提高,可能形成一个失真的回馈环路。
算法预测准确率无法保证,一旦出错可能造成无法挽回的损失。2017年12月,美国伊利诺伊州儿童和家庭服务部宣布,终止评估儿童安全和风险的预测系统,因为算法预测不准确造成了父母与子女错误分离的后果。同年早些时候,美国洛杉矶郡也由于预测型算法的黑箱问题与高误报率终止了预测型算法用于儿童受虐风险的评估项目。
算法深度学习与相关可能存在的预测失真问题由于算法自动化决策无法提供理由说明,算法决策缺乏有效的法律程序控制,易于不断自我肯定与强化,造成行政行为持续性错误与相对人权利受损。
三、基于行政信息公开原则增强算法自动化决策透明度
(一)算法嵌入行政活动背景下行政信息公开原则的回归
现有算法自动化参与的行政活动中,我国法律作出了一定调整,但仍在某些领域需要行政信息公开规则的回归。例如,在算法自动化决策参与行政许可行为中,我国《行政许可法》第 33 条规定了以数据电子方式提出行政许可,应在行政机关的网站公布许可事项。作为行政信息公开在算法治理时代的因应性调整。然而,在算法自动化决策参与的行政活动中,尚有行政信息公开原则的一些基本规则尚未得到满足。
首先,应增强算法自动化决策的可见性,作为行政信息公开的基本要求。我国政府部门中,算法自动化决策系统多以“秒批”“智能交通”“智慧司法”为名。我国不仅对于人工智能算法应用于政府部门并无清晰的规划与分类,现有的电子政务的公示与通知也并不完善。2018年第十七届中国政府网站绩效评估显示,超过15%的政府网站的办事指南存在权力清单与行政事项不对应,35%的政府网站办事内容不准确,80%存在办理材料详单不清晰。政府不应仅将算法系统看作是办公辅助系统,而是应公布政府部门自动化决策清单,让公众知晓哪些行政活动有自动化决策的参与,了解算法自动化决策可能带来的权利影响。
其次,算法作出决策的基本规则和因素权重,应该对公众与社会公开。形式的改变并不能豁免政府信息公开的义务。算法参与的行政行为并不会因为缺乏意思表示要素而不受行政法的拘束。原因在于,各类智能机器、评估模型等自动化设备的设置及启用以及运作方式,都是由行政机关发踪指示,行政机关仍是行政程序的主宰,所作出的表示或决定,都是行政机关的行为,具有法效意思及规制效力,性质上仍为具体行政行为。如果政府机构采用一条规则,仅仅以为算法运行不能直观地作出解释,就拒绝向公众公开,则违反了行政行为应公开透明的基本原则。早在1992年的案件中,美国联邦公路管理局拒绝披露用于计算运营商安全评级的算法,但法庭认为这违反了《信息自由法》中政府披露政府记录和数据的要求,判决联邦公路管理局必须披露计算中所用因素的权重。
以上是行政信息公开原则对算法自动化决策应用于行政活动的基本要求。除此之外,行政信息公开原则面临着“算法黑箱”的挑战,需作出相应的调整。
(二)行政信息公开原则在算法数据收集环节的贯彻
算法治理时代,人类将被降格为信息存在,以便接受机器的计算,方便企业获得利润和政府监督管理。 行政机关可大量收集公民数据,不仅基于公共利益豁免“知情同意”规则的限制,还可要求私营公司报送数据。这就导致,行政相对人并无机会知晓,嵌入在行政活动中的算法自动化决策通过哪些个人数据作出了决定。为遵循行政信息公开原则:
首先,行政机关收集数据同样受到“合法、正当、必要”原则限制 ,应在行政活动中逐渐将此类规则细化。从行为性质上梳理,行政机关对个人信息的收集行为属于内部行政程序,仅仅作为后续行政行为的必要前置活动,并不受到具体行政行为的相关法律限制。但是,作为数据收集行为,仍需严格遵循正当目的原则与必要原则。以2020年新冠疫情防控为例,无论是健康码对个人敏感数据的大规模收集与使用,大数据对公民的追踪定位,包括社区出入居民的信息登记,均应有公共卫生紧急状态作为正当性基础。在紧急状态恢复成日常状态之后,即使疫情状态防控常态化,也应避免对公民个人数据的收集与追踪常态化 。
其次,尽管基于公共利益考虑无法要求政府再次获得数据个体的知情同意,但起码应在平台向个体收集数据时,作出“不利行为”通知。即如果政府可能根据第三方的信息做出行政的自动化决策,对行政相对人有负面不利影响,则应要求平台在收集数据之时就告知数据个体。例如,应提示行政相对人,自动化决策结果参考了个人的公开信息、犯罪记录、信息记录,甚至社交媒体使用情况。美国学者欧内斯特·格尔霍恩所指出的,政府机构实施的不利公布行为之基本功能就是通知,目的在于告知公布对象相关政策或情况,以便他们再行为选择时可以利用这些信息。
此外,法律应及时划定政府获取第三方平台数据的边界,防止政府以公共利益为名无限度获取平台通过知情同意收集的用户数据,并规定政府做好相关的数据安全保障工作。
(三)行政信息公开原则与保护算法商业秘密的衡平
应平衡算法自动化决策的模型公开与保护私营企业商业秘密之间的冲突,适度增加算法自动化决策的透明度。一直以来,公开算法模型都被开发设计算法的私营公司以“保护商业秘密”为由反对。例如,美国法学教授要求纽约州和纽约市公布教师评分的算法,遭到了纽约州教育部的拒绝。因其算法技术供应合同规定,承包商提供的方法或措施是“专有信息”,教育部门不能公开。这引发疑问,私营企业的商业秘密可否凌驾于行政正当程序对信息公开的要求之上?
坚持行政公开原则,必须衡平商业秘密保护与公民正当权利之间的价值位阶。行政信息公开是一种集体语境下的程序正义,算法自动化决策普遍适用于行政相对人,本质是一般规则。算法的开发设计过程类似于起草和通过一项即将适用于一大批案件的一般证据规则。一套算法系统可对多个行政相对人产生法律效力,一旦发生错误可能产生弥散化的损害后果。而具备正当性的规则应具有可预测性,即人们可以根据规定,事先估计到当事人双方将如何行为及行为的后果,从而对自己的行为作出合理的安排。 这种对规则的知情权既是一种人权,也是可依据我国《宪法》推导出的公民权利。相对于私营公司的商业秘密保护,显然价值位阶更高。
退一步论证,要求公布算法决策要素及权重,并不是要求公布技术源代码,而是要求公布被代码化的法律规则。当前,有学者认为算法的透明既非必要也不可能,甚至存在一定的害处。 这将算法透明视作单一的、绝对的源代码披露,忽视了算法的透明具有多层次性、多种方式、多种对象。
算法自动化决策系统信息公开的不足会导致对政府公权力信任的不足,民众信任的缺失可能导致更多的上诉,抵消掉算法系统带来的行政效率提高效应。鉴于算法的技术性,美国学者尝试发展“技术性正当程序”的制度来解决这一问题,即通过强调编码公开、开发公众参与程序、系统软件测试等来实现程序所要求的透明化、公开和可问责等要求。因此,未来在政府内部增加专业力量,由既懂行政规则又懂技术的人员来监督算法设计运行,方为解决之道。
(四)行政信息公开与算法决策输出的说明
行政信息公开应包括对于行政决策结果中,在何种程度参考了算法自动化决策结果的信息。某个具体的行政行为,算法自动化决策可能起到不同程度的作用。有可能算法自动化决策直接成为生效的行政行为,如深圳市政府的“秒批”事项在2020年已达212个;有可能需要进行进一步人工审核,如再犯风险评估软件的法官审核。在此意义上,算法自动化决策对具体行政行为的干预程度和行政决策的可逆性应向行政相对人公开。即使算法自动化决策已经开始深度嵌入行政活动,但考虑到行政权力有着诸多不可让渡的空间,并且涉及国家等基本概念的存系,应尽量减少算法直接作出行政决定的情况。
与此同时,应尤其注意算法自动化决策结果对技术弱势群体的说明方式。我国《政府信息公开条例》第43条规定:“申请公开政府信息的公民存在阅读困难或者视听障碍的,行政机关应当为其提供必要的帮助。”依此立法精神,应在信息公开环节同样照顾老人、受教育程度较低人群等技术弱势群体,以简明、图画方式对公众说明算法自动化决策。
综上所述,行政部门应用算法自动化决策既应符合行政信息公开的基本要求,也应在输入数据、决策过程和最终决策层面遵循行政信息公开原则的要求。德国第36届信息官员自由会议通过一项文件“算法在公共管理中的透明度”。根据此文件,德国政府部门使用的算法必须要公布:(1)有关程序输入和输出数据的数据类别的信息;(2)算法所涉的逻辑,尤其是使用的计算公式,包括输入数据的权重,基本的专业知识以及用户部署的个人配置;(3)最终决策的范围以及程序可能产生的后果。政府使用算法决策如不遵循行政信息公开原则,算法自动化决策的公平、可问责则无从谈起。
四、基于公众参与原则进行算法影响评估
行政正当程序中的公众参与原则具有重要的实体权利保障功能,应从加强公众参与与恢复相对人陈述和申辩权利两个方面,发展算法治理时代的行政正当程序。
(一)以算法影响评估保证公众参与算法系统订购与使用
行政一般规则的制定需要公众参与的审议,然而技术力量垄断主导的采购与设计流程架空了这一过程。公众参与原则要求算法自动化决策系统在被用于决策和影响行政相对人之前,公众有权了解、评估和参与其对于自身和社会的影响。
算法影响评估是既有行政制度资源的发展,可参考环境影响评估等类似的相关制度。这一制度的目的在于让政府使用算法自动化决策前,能够创造机会使得行政相对人、研究人员和决策者共同参与影响评估。这为公众提供了算法系统部署前发现问题、表达诉求主张、甚至反对使用算法的机会,本身就是向社会提供算法系统信息的机制,能够让公众更加了解情况、增加算法透明度,并让政府部门、算法研发人员和公众进行富有成效的对话。体现出行政程序不应是行政主体单方用来约束公民、组织的工具,更是要体现出民主、责任、参与、法治的诉求。
目前,我国各级警务部门的算法系统上线过程基本采用“个别试点后全面上线运行”的模式。这种模式可以视为试运行阶段的算法影响测评,但上线前此类算法系统并无明确的评估程序,公众无法借助参与过程提出自身的诉求。为了保证算法自动化决策系统被安全地部署于政府部门,欧洲议会提出了“算法影响评估(AIA)”的制度框架,即对于可能对公民权利造成影响的算法自动化决策系统,应允许社区和利益相关者进行评估,以确定是否可以、以及在什么领域使用算法。 一些国家则已经将算法影响评估制度从倡议落实为制度。加拿大在2020年生效的《自动决策指令》中,提出了对算法影响的评估制度。美国华盛顿州通过了众议院和参议院的针对公共部门算法系统的HB165法案,要求政府部门的算法系统在使用之前必须由政府在公共网站上公布,“并邀请公众就算法问责报告发表评论,时间不得少于30天”。实际上,在欧盟《一般数据保护条例(GDPR)》(以下简称GDPR)中规定的“数据处理活动影响评估”制度实际上也是类似的算法自动化决策系统影响评估制度,而且既适用于私营公司也适用于公共部门。
算法自动化决策的评估程序,不仅是公众参与的有效路径,也是算法设计者和使用者(平台或政府)进行自我监管的重要方式。例如,我国中央网信办将某些算法应用定义为“具有舆论属性或社会动员能力的互联网信息服务”,并要求其进行自我安全评估。举轻以明重,由政府部门购买使用的算法自动化决策,也不应被置于秘密黑箱之中,而应在投入使用切实影响公民权利之前,经过公众参与的算法评估程序。在我国2020年7月发布的《数据安全法(草案)征求意见稿》中,提出了重要数据处理者的风险评估制度,以及政务数据委托处理的批准程序,但此类规定出于保护数据安全,基于保护公民权利的程序制度尚付诸阙如。
(二)将通知与申辩环节作为算法决策生效必经程序
第一,应避免全自动行政行为直接对当事人发生法律效力,保证行政相对人可以收到算法自动化决策的有效通知,作为行政行为生效的必经程序。为保障行政效率,很多的算法做出具体行政行为时完全无需任何人工干预。但是,当算法做出了不利于当事人的决定时,按照正当程序更应该提供有效通知。例如我国荣成市将个人信用评分的计算和评级分为指标得分和直接判级两种,前者是按照信用信息评价标准予以加(减)分,后者则是针对严重失信行为,将自然人的信用级别直接降级,被降级的自然人可能面临如限制出境、限制高消费、公布姓名等惩戒行为。这类算法自动化决策应以对相对人的及时通知作为后续行政活动展开的基础,公民可以主张相关内容的更改、撤销或者无效,方可为公民提供后续的救济路径。基于这种考虑,德国行政程序法上对完全自动化行政的适用规定了两个条件:其一,法律保留,即仅当法律法规允许时方可适用;其二,行政机关不存在裁量和判断余地时方可适用。
第二,应保证当事人有陈述和申辩的权利,确保公民获得人工干预算法自动化决策的权利。心理学的认知实验表明,人类将算法自动化系统看做防错系统,当算法与人的决策出现分歧时,自动化系统的操作员倾向于相信计算机的回答。 因为解码算法自动化决策的成本过高,而验证该算法做出的某个具体决策是否准确相比之下收益变得极小。这导致算法自动化决策做出具体行政行为的情况下,具体个案的听证成本极高,并不符合成本收益分析。GDPR第22条为类似境遇的相对人提供了出路:不受完全的自动化决策支配的权利,以及获得人为干预的权利。在官方的解释性文本中指出,该条款的目的旨在保护数据主体的利益,保障数据主体可以参与对其重要的决策。 强有力的行政部门对个人使用数据进行自动化决策的行为,使数据主体活在“数据阴影”之下,剥夺了个人影响决策过程的能力。
五、基于说明理由规则创设算法解释权
由于数据来源的不透明、算法黑箱等因素,算法自动化决策的结果是如何得出的却难以为个体所知晓。算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度。
(一)发展算法解释权说明具体行政行为的理由
各国的立法者与学界达成共识,即自动化决策的算法应当具备可解释性,使得用户有权知晓决策的原因。如法国数字事务部长表示:“如果政府不能解释其决定,政府就不应该使用算法。” 如果对于相对人不利的行政活动缺乏理由的说明,不仅会造成严重的程序性权利损害,更会使得行政相对人并不知晓理由而无法获得行政法上的救济。
如果将算法自动化决策看作是专家论证,行政决策的科学性也必然要求建立行政决策专家咨询的说明理由制度。算法自动化决策经常以“专家决策辅助系统”的形式参与行政决策,行政部门应以其理性解释回应公众疑问,这既是对行政决策理性内涵的解释,也是对公众的一种负责任的回应。无法提供理由说明的专家意见直接影响行政决策的效力。司法实践中,以专家咨询结论说理不充分为由否定行政决策的个案并不鲜见。
算法解释权已经从理论逐步发展为各国的具体制度,但其面目一直模糊难辨。以最早提出算法解释概念的GDPR为例,其第13条、15条提出的应使数据主体了解“有意义的信息”“参与决策的逻辑”等规则,可以被法官宽泛或限制性解释,也可能由于算法决策并非“完全基于自动化处理的决策”而被规避。
法国2017年颁布实施的《数字共和国法案》则规定了较为具体的针对公共部门的算法解释权。第一,针对的算法自动化决策范围扩大,不再要求是“完全基于自动化处理的决策”,而涵盖了行政机关的决策支持算法系统。第二,法国的算法解释权仅适用于行政决定,因公共部门披露算法决策更具有理论正当性,并且没有商业算法决策的商业秘密障碍。第三,披露的内容具体、范围明确。要求提供的具体解释内容包括算法在行政决策中所起的作用与模式,算法处理的数据及来源,以及算法做出决策的权重,以及其如何适用于个体。无独有偶,加拿大公共部门算法的《自动化决策指令》在2020年4月生效,要求使用算法决策的公共部门,应就其决策向受影响的个人提供有意义的解释,甚至包括决策中使用的变量。可见,针对向行政相对人个体提供具体的算法解释具有不可替代的制度价值并逐渐成为各国实践。算法影响评估制度并不能代替算法解释权制度,因为其旨在事前风险的规避,而非事后的个体救济。
(二)行政行为算法解释的内容和标准
理由说明的目的不仅限于知情,更在于提供救济路径。换句话说,理由说明不仅要使相对人知晓决定是如何作出的,同时还应提供相对人可修正自动化决策的方法。具体的自动化决策算法解释的理由说明包括:具体决策的理由,原因,产生决策结果的个人数据。例如每种指标的功能权重,机器定义的特定案例决策规则,起参考辅助作用的信息等。在决策涉及相对人实体权利、程序权利及救济权利,涉及“最低限度的公正”时应就自动化决策系统的运营过程、运营结果、做出行为的推理,给出理由说明。政府部门提供的算法解释应遵循以下标准:
第一,解释的客体完整。自动化决策的算法解释应由监管部门统一提供格式解释文本,保证算法设计者和使用者提供的解释客体完整且无遗漏,否则应视为无效的解释。第二,政府具体行政行为的理由说明,如不能提供理由则应视为没有理由,可能直接导致政府算法自动化决策的行为失效。第三,解释语言清晰平实,以书面形式作出。自动化决策算法解释本质是由信息占有优势一方作出的“信号发送”行为。由于政府与行政相对人权力与技术力量的差距,应要求自动化决策算法解释必须以清晰平实的语言作出,否则会导致解释徒具形式而无法被理解。行政机关的算法解释应遵循具体行政行为说明理由的要求,或以书面形式作出,或在做出行政行为时必须说明,方便为日后行政诉讼与算法问责均留存证据。
不透明的自动化决策应具备可解释性而受到公众监督,使相对人有权知晓决策的原因,已经成为算法自动化决策治理机制的共识。如果要求政府使用的算法自动化决策必须提供解释和理由说明,还可以限制政府使用过于复杂的机器学习的算法系统。
六、结语
在已有的世界各国的立法中,政府使用的算法自动化决策都是被优先作为监管的对象。公民有权利期待国家使用现有的最佳技术来履行其行政管理职责,这既来源于政府机构有直接义务维护行政相对人的各项权利,更来源于行政机关应为整个国家树立榜样。试想,如果被民众信赖的、拥有最多社会资源的政府尚不能在算法自动化决策中保障公民权利,又如何指望私营的互联网企业同样公开、透明呢?算法治理时代,亟需遵循行政正当程序的制度精神以改变对算法“技术中立”的错误认识,避免“算法监狱”与“算法暴政”的产生。算法治理时代,坚持、修正与发展正当程序的具体制度,是政府负责任地应用算法自动化决策的基本要求。