查看原文
其他

郭琪|政府算法决策的本土化路径

郭琪 上海市法学会 东方法学 2022-11-11

郭琪

中国政法大学人权研究院博士研究生

要目

一、政府算法决策的立法溯源与功能探析

二、政府算法决策规制的机理缺陷

三、政府算法决策的本土化路径


算法技术的深入发展,使得社会各行各业出现了不同维度的断层式发展。日趋成熟的算法技术所带来的技术红利与算法经济的深度发展,为当下政府转型提供基础技术支持的同时,也引发了政府治理新模式——政府算法决策。欧盟2018/1725号条例对于公共机构的算法决策问题予以充分回应,在个体自主性的充分遵循,算法问责持续强化,多层次立体化的监督体系层面体现出强劲优势,然其存在主体责任模糊导致的多元利益冲突、缺乏场景化、现实化治理视角方面的机理缺陷导致实效堪忧。由此,我国必须在现有的政府算法治理框架上,开展算法解释与行政信任的双轨制发展、以个体为锚点展开场景化治理、事前监管思路充分介入以增强政府算法决策体系的实效。

伴随人工智能的发展思路由符合主义转向连接主义再到行为主义,作为基础支撑的算力、数据、算法皆已取得突破性进展。算力即指代计算机的计算能力,为人工智能的发展提供设备支持,数据则是对客观事件进行记录并可以鉴别的一类符号,是人工智能发展的基础。而算法即指代一种运算思路,从数据分析中获得规律,并利用规律对未知数据进行预测,从而服务于既定目标,是人工智能发展的核心。算法基于决策的相对客观、公正与高效被迅速应用于社会生产之中,并日渐在社会的决策体系与话语体系占据主导地位,并日益呈现“公共性”特质。2017年国务院《新一代人工智能发展规划》(以下简称《规划》)提出,要开发适于政府服务与决策的人工智能平台,研制面向开放环境的决策引擎,在复杂社会问题研判、政策评估、风险预警、应急处置等重大战略决策方面推广应用。在具体的应用层面,阿里巴巴达摩院决策智能实验室开发的“国土资源监管系统”,通过分析高分辨率遥感图像,应用深度学习算法,可以快速精准地发现存在污染、盗伐、侵占和灾害的可疑地区,为国土、环保、水利等部门提供了有力的决策支持;深圳市公安局交通警察局已经与华为公司的Atlas人工智能计算平台合作,构建深圳城市交通大脑,即采用智能化分析手段,提取涉案情报,提高城市立体化、动态化防控能力。算法在社会决策与服务层面的技术优势为其介入政府管理提供了天然契机,早在20世纪80年代,美国兰德公司开发的ROSIEAI智能系统便可模拟国际行为体在战争中的战略决策以服务于国家的战略决策。

面对算法渗透并日益扩展引发的危机,以欧盟《通用数据保护条例》(以下简称GDPR)为代表的立法赋予个体一系列新型权利,希冀通过个体赋权的方式解决个体主体弱化的趋势。在承袭GDPR的基本逻辑与架构的基础上,欧盟2018/1725号条例专门针对公共机构的算法决策行为予以规制,从而为政府算法决策治理提供有益借鉴。基于政府部门的公共属性,如何科学构筑政府算法决策体系,成为算法研究的治理研究和立法实践的重点。然既有的研究多从行政权本身的治理逻辑展开,或从算法决策与行政法既有规则的冲突展开,或仅对行政处罚的分级提出建议,缺乏对于个人免受政府算法决策的系统性论证。因而,本文紧密结合我国的政府算法决策立法动态与实践,在对欧盟2018/1725号条例予以分析的基础上,对于个人如何免受政府算法决策约束的本土化借鉴与调适予以深入探讨。

一、政府算法决策的立法溯源与功能探析

人工智能算法驱动的决策基于大数据和高纬数据筛选预测因子,建构非线性和高度交互的预测模型,非常准确地预测了高度复杂的现象与数据间的关系。而人脑对于数据获取能力十分有限,且在决策之中受到非理性偏见、情感的影响,因而人工智能进入政府部门辅助公共决策具备了技术上的正当性与情感上的合理性。算法决策与信息化的发展历程密切相关,全球信息化的理念始于1993年美国提出的国家信息高速公路计划,在2005年美国政治学家达雷尔在《数字政府:技术与公共领域绩效》中首次提出了“数字政府是公共部门利用互联网和其他电子设备来提供服务、信息和民主本身”这一论断。数字政府大致的发展流程包括电子化公告、部分互动传递、门户网站建设、互动式民主等四个阶段。目前,大部分国家皆处于第三、四阶段,初步的电子化公告与政府内部网络建设已经初具规模,更为重要的问题在于如何开展互动式民主。影响互动式民主发展的因素除去基本的技术普及率外,更为重要的问题是自动化具体的应用领域为何。受制于行政的“法无禁止不可为”,算法决策的具体应用领域有待公众接受度与法律的双重效能发展。

法律介入到公共机构的算法决策最早可以追溯到1974年。1974年欧洲理事会出台了74/29条例(Resolution(74)29 on the Protection of The Privacy of Individuals Vis-A- Vis Electronic Data BanksIn The Public Sector)对于公共机构通过算法决策系统进行管理提供了原则性指引,大致涉及公众的知情权、决策系统的合法性、信息储存的安全性、非歧视原则。随后,1978年法国通过的第78-17号计算机、文件和自由法第10条就明确规定,如果一项司法决定完全基于自动化数据处理作出,且该决定以目标主体的画像或者个性评估为依据,应当对其加以禁止。该条规定采用全面禁止路径,对完全算法决策在司法领域的适用加以限制,希冀以保障人类司法决策的方式对抗个体尊严被不断蚕食的现状。类似的立法理念可在同一时期颁布的多部数据保护法中观察到。1981年1月28日,欧洲理事会成员国在法国斯特拉斯堡市签订了欧洲系列条约第108号关于自动化处理的个人数据保护公约(以下称“108号公约”)对于公共机构自动化处理数据行为予以规定。1995年,欧盟委员会颁布了数据保护指令。该指令第15条第1款规定:“如果一项决定是完全基于数据的自动化处理做出且目的是评估与其相关的某些个人方面,例如工作表现、信用、可靠性、行为等,成员国应当赋予数据主体免受对其产生法律效力或者重大影响的完全算法决策约束的权利”。该条在法律意义上确立了个人免受算法决策的权利,从立法层面真正赋予个人以对抗算法决策的权利。2001年,欧洲理事会颁布的第45/2001号条例第10条第1款明确,禁止公共机构自动化处理有关种族或民族血统、政治观点、宗教或哲学信仰、工会成员身份的个人数据以及有关健康或性生活的数据。该款直接将公共机构的算法决策行为与公民的基本权利相勾连,即意味着,基于算法决策的公共机构决策行为基于算法的介入而使得决策的模糊性强化,唯有基本权利的介入才能产生有效回应。

随后,伴随通用数据保护条例(以下称“GDPR”)的颁布,45/2001号条例也随之被2018/1725号条例所取代。为了回应算法时代的技术发展与应用现实,个人权利的升级转型成为各国目前立法的主要动向。依据GDPR第2条第3款,2018/1725号条例承袭GDPR中原则与规则的制约,在逻辑上具有承接关系。同时,2018/1725号条例作为一部专门针对公共机构算法决策的系统性条文,无疑对于公共机构的算法应用具有重要的导向作用。

对于个体自主性的充分尊重

在现代社会,通过制度保证“作为人的完整性”,对个人尊严予以基础保护成为人类生存和发展的基本需求之一。政府的算法决策涉及两方面,首先为基础的数据收集层面,其次为决策层面,具体包括是否开展具体的行政行为,开展行政行为的尺度何在。以交通违章为例,数据收集层面即指代通过技术工具或个人进行道路秩序的管理,决策层面即是否针对特定主体进行处罚,处罚的具体措施为何。尽管大部分公共机构皆以通过法律与行政法规的授权完成了数据收集层面的正当性论证,但是基于算法黑箱的存在依然导致了隐性的歧视危机。预测警务算法中,过分强调邮政编码,可能导致低收入的非洲裔美国人社区与犯罪地区产生联系,进而导致该群体成员都成为预测犯罪的具体目标。而在决策层面,对于公开透明公正原则的原则性宣扬由于缺乏后续的制度设计,而无法对抗知识产权保护,因而很容易导致事实上的公开不能。纽约市算法监管工作组从2017开始,召开了三次会议,直到2019年4月仍未就“算法决策”的定义与范围达成共识,各政府部门也拒绝提供使用的算法清单,仅肯提供示例。

政府算法决策的复杂性决定了其规制的难度,而2018/1725号条例承袭了欧洲大陆对于个人基本权利的充分尊重,高度关注其信息自决权。信息自决权是个人决定自身形象呈现方式的权利,体现在数据治理领域表现为数据主体被赋予拥有控制与自身相关信息披露的能力。在GDPR22条对于算法决策进行专门规定的前提下,2018/1725号条例25条第1款进一步将不过分受制于知情同意限制的范围明确为,成员国的国家安全,公共安全或国防;预防,调查,侦查和起诉刑事犯罪或执行刑事处罚等,欧盟机构可能会限制数据主体的权利。同时,2018/1725号条例为防止公共机构自身的双重监管有可能导致的公共性越界,再次通过专门且独立的数据官、数据保护监督员、行政罚款等配套监管制度以进一步强化个体在政府算法决策之中的话语权,增强其信息自决能力。

总体来看,2018/1725号条例同GDPR高度类似,同样以个体的独立自主作为其设计的主要价值导向,将知情同意作为其基础的逻辑框架。同时,又将个体权利保护提升至基本权利层面,赋予个体充分且有效的救济权利。

算法问责的持续强化

政府算法决策涉及的是政府公共机构的自由裁量权。公共机构的自由裁量权体现在一个关乎如何较好提供政府服务、福利和惩罚的决定之中(此时不确定被呈现),人类对不确定性的裁量拥有权威。在此意义上,公共机构的算法决策实际上是涉及对不确定责任承担的分配问题。由于不确定性引发的责任承担目前存在两种模式,一种以企业作为责任承担的主体,即构建负责任的算法,通过算法本身来监督算法。也就意味着,平台企业自觉树立科学的、适宜的社会责任观,内生出自觉自主履行社会责任的动力与意愿,全面增强社会责任管理与实践能力,高阶耦合和综合运用社会责任根植模式与议题嵌入模式。美国2019年颁布的《算法问责法案》明确规定行政机构以及慈善团体应用算法决策系统时应当接受算法决策系统工作组在公正性、可问责性和透明度等方面的评估。与纽约市的立法类似,2019年华盛顿州提出的S.B.5527和H.B.1655法案以及加利福尼亚州的S. B.444法案也明确规定政府和公共实体机构在公共事业场景应用算法决策系统应当进行算法影响评估。同时,其于2020年颁布的《人工智能政府法案》(AI in government act of 2020)试图通过建立“人工智能卓越中心”和美国行政管理和预算局出台联邦机构发布关于人工智能治理方法的具体规则。此类模式更多着眼于要求技术公司对自己所开发或应用的算法进行算法审查或审计降低算法带来的风险,即进行算法问责。算法问责机制的核心即在于将算法监管的责任更多赋予技术公司。也就意味着,算法使用者或者控制者有义务报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害。另一种模式为个体赋权模式,GDPR创设的个体权利范式符合欧洲大陆对于个人隐私价值的充分尊重与维护的历史传统。欧洲大陆围绕隐私保护建立的各项权利体现了一条共性规律:即建立在对个人尊严保护的基础上,赋予主体控制个人形象在社会中予以呈现的权利。基于这一理念设定,GDPR对于算法的规制思路即尽可能使得个人能够通过知情同意对抗算法对于其权利的侵害。GDPR以知情同意作为个体赋权的核心,尽可能增强算法自身的透明性。

从设计机理看,2018/1725号条例在遵循GDPR既有规则之下,对于公共机构算法决策的行为进行专门性规制,在个体赋权的基础上,强化算法问责。一方面,2018/1725号条例在个体赋权上同GDPR保持高度相似性,以知情同意构建个体赋权模式。GDP第12条明确“控制者应当以一种简单透明、明晰且容易获取的方式,通过清楚明确的语言,采取合适措施提供第13条和第14条所提到的任何信息”,而2018/1725号条例第14条也采取了类似规定。同时2018/1725号条例第24条同GDPR22条一致,直接赋予数据主体有权不受仅基于算法决策得出的决定制约的权利,此处的算法决策还包括识别分析。

另一方面,2018/1725号条例在公共利益的适用状态之中,强化算法问责。但同美国不一致,2018/1725号条例将对算法透明度的解释责任更多归咎于使用算法的公共机构,对于公共机构的自我证明提出了更为清晰的规范。第6条进一步明确对于公共机构基于其他兼容目的对于个人数据进行收集,控制者应对兼容目的与进一步目的的联系、收集的背景、个人数据的性质、进一步决策的后果、保密措施等进行考量。且在第9条进一步对将个人数据传输到欧盟机构和团体之外的设立的接收方的条件限定为“处于执行公共利益的必要或者进行利益平衡之后的必要性”两种情况。同时,该设立的接收方必须对传输的必要性和目的相适应性作出说明。第39条确立了欧盟公共机构的电子通信保密义务。总体而言,2018/1725号条例为公共机构算法决策留下了较少的自主解释空间,适用的范围与应用都旨在创立于负责任的责任体系,防范公共机构通过公共利益对于个体形成强制性、无形的权利侵害。

多层次立体化监督体制

从法理上,公权力的社会治理必须借助一定的信息收集完成,而后续的信息处理为社会治理的重要环节,具有法理上的正当性;从立法论,大多数国家已经通过专门的立法为公共机构收集个人信息完成正名,后续的信息处理部分也正在完成法治化进程。公共机构基于其的公权力属性,因而仅仅依靠个人赋权模式形成权力监督很难有效对抗公权力。故,必须通过权力监督完成对于公权力的有效规制。正如孟德斯鸠所言“从事务的性质来说,要防止滥用权力,就必须以权力约束权力”,因此2018/1725号设置欧洲数据保护监督员与个人赋权模式进行有效衔接,以形成多层次、立体化的监督体系。

从私权利层面看,个人可以向欧洲数据保护监督员(European Data Protection Supervisor,简称EDPS)提出投诉、获得司法救济、获得赔偿。这些规定与GDPR基本保持一致。从公权力层面看,欧洲数据保护监督员是由欧洲议会和理事会确任命的独立的监督员,其“在执行条例和行使权力时完全独立”“应不受任何直接或者间接的外部影响”,核心任务在于监督公共机构算法决策与现有法律规定的一致性。公共机构必须对于个人数据泄露情况应当在72小时之内向欧洲数据保护监督员报告,对于个人数据算法决策的过程予以充分的记录且必须公开以便于监督。同时对于涉及处理个人信息的行政规措施、内部规则、立法案都必须向欧洲数据保护监督员进行相关咨询。此外,2018/1725号条例建立了最少伤害原则。这是其对45/2001号条例的较大突破。它始终强调算法决策过程对于数据主体的权利干扰:公共机构应当关注算法决策的本质、范围、目录、目的以及决策活动对于个人权利与自由的潜在侵犯。

二、政府算法决策规制的机理缺陷

由公共机构收集注册、交易的数据且进行记录并最终用于理解社会模式、发展趋势与政策的社会影响的社会治理思路并不是伴随算法而诞生的。早在2000年,爱沙尼亚电子政府已经开始支持公民在网上报税,用时仅3分钟。在算法日益成为社会发展底层架构的同时,政府应用算法进行决策成为政府发展的必然趋势。算法“中间人”特质使得传统的政府治理架构之中无形纳入作为第三方的技术公司,算法的“黑箱性”与政府治理的公权力属性叠加使得单纯的算法解释无法真正与法律层面的“法律解释”匹配,即提供“有关处理逻辑的有意义的信息(meaningful information)”,从而无法达到预设的透明度的期待。此外,一个更为重要的问题在于,算法解释本身是否能够真正为个人提供有效性救济。法律上的正义与算法解释并不等同,探求算法如何进行决策并不能导致法律秩序上正义的产生。正义并不意味着分析某一算法系统内系统性或者以歧视性方式的错误。尽管法院可以通过判决推翻错误,但是这些错误会导致真正的权利侵害与时间浪费。总体来看,2018/1725号条例在承袭GDPR基本原则与规则的基础,对于公共机构的算法决策进行了更多翔实的规定,然该规定也存在如下设计机理的不足:

主体责任模糊导致多元利益冲突

政府算法决策之中的核心问题在于具体的责任承担问题。依据2018/1725号条例第3条第8款与第12款,公共机构为一般意义上的控制者,而技术公司为处理者。技术公司在公共机构的特定目的与方式要求之内的数据处理行为的责任由公共机构承担,超出部分由技术公司承担。同时,公共机构与技术公司也可以成为联合控制者。而这些数据处理行为都应受到独立的欧洲数据保护监督员的监管。这种看似清晰的主体责任设计在实践操作中基于数据处理行为本身的复合性而导致了多边利益冲突。

第一,控制者、联合控制者、处理者的区分导致公共机构与技术公司责任划分不够清晰。目前控制者与处理者区分的标准为“目的”“方式”,而联合控制者的出现使得二者区分的意义弱化。欧盟法院通过Fashion ID案将Fashion ID 和 Facebook Ireland 确定为数据收集与公开层面的联合控制者。在该案中,他们认为:Fashion ID 和 Facebook Ireland 联合确定这些处理的目的和(的基本要素)手段操作,因而应当被认为联合控制者。如果以“目的”“方式”作为判断联合控制者的标准,那么理论上公共机构与技术公司也存在联合控制者的情形。当二者被视为联合控制者时,技术公司在事实上介入了公权力的行权过程,并对公权力自身造成潜在干扰。数字技术发展的初衷是为了以最少的信息交换向个人提供更为个性化与专业化的服务,然公共机构与数字技术的数字整合导致一些人声称“受到更为广泛的社会场域的影响,技术变革对于公共机构的行政能力、发展路线与发展能力产生干扰(如创新精神)”。如技术导致的隐性歧视嵌入政府治理之中,对政府决策产生干扰。2020年6月30日,纽约市计算机协会(Association for Computing Machinery)呼吁停止私人和政府使用面识人脸别技术,原因是“基于种族、种族、性别和其他人类特征的明显偏见”。

第二,技术公司的商业秘密保护与现有监管思路的冲突。现有的监管思路以解释权作为规制的核心思路,企图利用解释达到算法透明的需求,由此知情同意与公开机制叠加形成算法解释权的基本框架,并最终服务于社会整体正义的实现。而商业秘密保护的核心在于“非公共知性”,在逻辑上与要求公开的算法解释存在天然张力。在个案之中,算法的公开难以得到法院的支持。在卢米斯案中,卢米斯算法公开的诉求未能得到法院的诉求,原因在于对其进行风险评估的COMPAS公司以商业秘密为由,仅将对再犯风险的评估结果被报告给法庭。且法院提出:法院的最终评估只将COMPAS评估结果作为参考依据,而非唯一的裁量标准。

第三,技术公司对于低技术风险的控制力优势(如纠正文字错误)并未移转到基本权利领域,从而导致个人权利保障失能。个体进行监管的对象有两类,一类为技术公司,一类为依据技术公司开展社会治理的政府。显然,公权力天然被赋予的强制性延伸至算法治理之中,并进而对技术公司产生强制性约束。弗兰克教授提出:“权力代表了一种资源的优势,这种资源包括人口、金钱和知识。”很明显,技术公司的知识优势在不断向人口与金钱扩散,从而催生了“技术权力”的产生。但由于技术公司缺乏法律的正当性优势,权力结构松散,因因而无法有效对抗公权力。此外,目前技术公司与政府部门之间的关系多被定义为民事意义上的服务合同,而政府部门在合同关系之中的强势使得技术公司缺乏必要的话语权。英国GDS(Government Digital Services)的经历启示我们:在数据领域的任何强制性文件都必须受到政府部门“官僚竞争与地盘大战”的影响(bureaucratic competition and turfwars)。

缺乏场景化、现实化的治理视角

同GDPR类似,2018/1725号条例对于公共机构的算法处理活动进行原则和规则性规定,对于各国的数据保护予以指引。尽管已经对公共机构与非公共机构作出重大区分,但是并未对于公共机构的“公共性”予以特殊回应,缺乏场景化、实体化的治理视角。场景化指意义赋予和行动存在均依场景而触发,指运用情景触发行动者特定情绪或行动的时空设置已经成为社会的普遍现象。而现实化即关注算法在社会之中的实际运行效能。算法技术与社会不同场景的融合状态与各场景的发展目标不一致要求公共机构的公权力介入必须针对场景的特殊性予以不同的规制思路。

第一,对于非自动化决策场景的缺乏关注。欧盟国家多关注完全自动化决策的处理行为,(以GDPR22条为核心)而对于非自动化决策的行为缺乏关注。29条工作组(现已经被欧洲数据保护委员会取代)提出:除非满足以下两个条件(1)个人有权和有能力对决定提出质疑,并且(2)对于他们可能使用的任何决策支持工具,而不仅仅是应用生成的配置文件经常表示不同意;否则某一决定应该被视为自动化决策。尽管2018/1725号条例在第2条第5款提出本条例适用于非完全自动化行为,然其行文逻辑依然是按照完全自动化决策的思路展开。自动化决策以提高算法的运行速度与效率为既定目标。在自动化决策中,算法用于实现具有复杂元素但简单且相对客观的任务的自动化,如对来电或通信进行分类。而非自动化决策场景,算法决策仅能起到辅助作用。算法决策意味着机器伴随对给定任务的执行次数的增加而逐渐优化,给定的任务、表现、执行次数决定了机器学习的效果,而非自动化决场景之中的算法只有在三者都正确实施的前提下才可以被讨论,其对于政策目标的可量化程度要求更高。可见,非自动化决策的重点有二:一方面,如何将政策目标量化为算法目标,最大程度上实现算法运行与法律正义行使的等同;另一方面,非自动化决策场景对于最终决策的影响如何评估,此类场景中机器与个人的复合性弱化了决策的可视性,相关的责任承担也由于机器的加入而无法完成逻辑上的自证。

第二,对于算法决策结果的实体化层面缺乏关注。公共机构的算法决策由于公共机构的公权力属性叠加,因而其决策的结果不单是对于算法决策结果的社会化体现,更为重要的是其本身代表了行政权的行权过程。现有的算法决策治理思路多偏重对于算法本身的监管,迫使更多的监管着眼于算法的运用结果,即政策的制定过程,而非政策的具体实施效能。基于目前的政府决策多存在算法决策的介入,因而导致具体的政策制定过程得以更广泛的监督。算法决策无形使得结果公正转化为完全的程序公正,分析某一算法系统内系统性或者以歧视性方式的错误成为判断算法决策结果是否正义的唯一指标。同时,对于算法决策结果实体化层面的忽略,预设了现有的行政权行权的程序展开,导致对行政权行权模式的侵害。如英国的信息自由法虽然包含了对“政府政策的制定或发展过程”的一定豁免,该豁免通常用于为决策和权衡提供“安全空间”,但扩展到行政程序的透明度权利无疑会破坏这一安全空间。

三、政府算法决策的本土化路径

算法决策目前已经逐渐发展成为政府转型发展的必然趋势。英国政府通过“数字伦理与创新中心(Centre for Data Ethics and Innovation)”推动可信赖的数据与人工智能的发展,其将支持数字政府发展与当下的法律法规匹配、向相关政府部门和监管机构提供专家意见。法国德国也分别建立了法国国家数字委员会(French National Digital Council)和德国数字道德委员会(German Data Ethics Commission)为数字政府的发展提供原则性和规则性指引。当前各国的政府部门算法应用大致包括:税务检测、从监控目标区域到警务应用、确定潜在受害人、提高侦查人员水平的一系列用途;判断罪犯再犯可能性;以及使用某些预测性的工具开展儿童保护。

我国的数字政府发展呈现四个发展阶段,第一阶段是在2001年之前,我国通常称为“电子政务”,主要以电子化的方式辅助政务业务和政府门户网站建设。当时我国以三金工程和政府建设为着力点,更多起到一种电子化的公告方式,以提高政府工作效率为重点。第二阶段是(2002年至2014年)网络政府,以利用物联网等技术来推动政务服务数字化建设为特征,核心理念是由从政府部门为中心转向以人为本,主要服务于政府内部网络建设,对公民而言仍停留于电子化公告阶段,缺乏必要互动;第三阶段始于2015年,自从2015 年我国部署实施《大数据的发展行动纲要》《“互联网+政务服务”技术体系建设指南》《加快推进全国一体化在线政务服务平台建设的指导意见》,推动数字政府持续深入发展,主要以数据为核心,将数据治理、数据资产化作为关键,此阶段主要进行数据资源开发,开展互动式民主,进行部分服务的在线传递。第四阶段是智慧政府,智慧政府的演进路径是在数字政府阶段之上,以实现应用智能创新为主。在2021年国务院颁布的《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中提出,数字政府建设要强化数字技术在公共卫生、自然灾害、事故灾难、社会安全等突发公共事件应对中的运用,全面提升预警和应急处置能力。此外,个人信息保护法第33条至37条对国家机关处理个人信息的行为进行规定,在法规范层面限定为法律、行政法规,但由于缺乏后续制度设计,而更多缺乏有效回应。

就地方层面看,政府部门的算法决策发展分为三种模式,一种为横向发展模式,进行跨部门、跨业务之间的合作,如《贵州省“十四五”数字政府建设总体规划》提出:提升跨部门协同水平。加快跨部门间“大政法”“大应急”“大健康”“大旅游”“大党建”等大系统建设,实现跨部门、跨区域、跨层级、跨系统数据融合应用,推动单纯的政府治理模式向多元协同治理的模式转变。另一种为纵向发展模式,开展跨地域之间的合作,如上海市《上海市全面推进城市数字化转型“十四五”规划》提出:按照“三级平台、五级应用”逻辑架构,建立市、区、街镇三级城运中心,实现“高效处置一件事”,打造务实管用的智能化应用场景,重点建设城市之眼、道路交通管理(IDPS)、公共卫生等系统。第三种以数据本身的生命周期为参考标准,建立决策、执行、监督、评估、反馈和追责的全生命周期闭环机制。如江苏省《江苏省“十四五”数字政府建设规划》提出:建设政府“数据大脑”......围绕经济发展、政务服务、社会治理等综合领域,建立运行指标体系,促进各类数据融合,精准识别运行风险,深度研判发展趋势。运用数字化手段,建立决策、执行、监督、评估、反馈和追责的全生命周期闭环机制。

截至目前,我国的政府算法治理主要依靠制度性文件的原则性指引,缺乏法律层面强制性规范的回应以及独立的专业机构的指引,从而使得相关政府算法治理仅停留于初步的算法应用,缺乏与行政权属性契合的规范化回应。由此,本节密接结合围绕2018/1725号条例,提出以下三点调试建议:

算法解释与行政信任的双轨制发展

无论是欧盟的GDPR抑或是2018/1725号条例,基本上呈现以算法解释性思路为主导的逻辑框架,对于技术公司和公共部门施加的责任义务基本上依托“增强算法解释,进行解决决策的透明度问题,最终推动决策的科学化”思路展开。目前,我国尚未在法律层面对于政府算法治理予以明确性规制,与此相关的法律条文散见于个人信息保护法数据安全法等。数据安全法确认了以数据分级分类的方式开展数据安全维护的基本架构,同时第37条至43条对于政务数据的开放在规范层面限定为法律、行政法规。在此基础上,个人信息保护法对于政府部门的数据治理回应更为系统与全面。一方面,其确定国家网信部门负责统筹协相关的信息保护工作,各个部门在自己的职责范围之内进行个人信息监管。这种基于“场景理论”的设计,从表面看,基于信息保护与信息流动在特定的情景中应当符合各方的预期,因而赋予各个部门一定的灵活性。然截至目前,仅有国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合制定了《常见类型移动互联网应用程序必要个人信息范围规定》,工信部开展了App侵害用户权益的整治活动,其他部门对于个人信息保护涉及较少。此外,个人信息保护法专节对于国家机关处理公民个人信息的行为进行回应,将其限定为“以职责为限处理公民个人信息”。这种较为宽泛的规定,必须借助面向组织法、行为法、程序法以及救济法适用时的规范,它们将共同构成行政主体进行个人信息处理行为的合法性基础。

算法解释的治理思路,即意味着基于透明性主张的算法解释权,个人可以对所有算法决策者提出算法解释与说明的主张,并且可以在信息处理者拒绝的情形下提起诉讼请求。这种单纯算法解释的思路或许在面对商业公司的算法侵入存在一定的权利优势,然面对政府机构的算法决策,基于公权力的强制性而存在行权失能。以算法解释为核心的算法治理思路,在与公共机构结合之时,忽略了传统的行政过程,预设了行政过程的逻辑展开,使得行政权实施的效果被忽略。由此,必须在业已建立的算法解释的框架之中,展开行政信任构建机制。

政策目标是在宏观层面制定的,而实施意味着其在微观层面的展开,实施效果与给定的政策目标必然存在一定的不一致,而这种不一致的程度影响公民行政信任的程度。因此,必须在算法解释框架之外,强化传统的行政信任框架,增强对于政策执行主体、政策最终实施效果的监管与评估,将算法解释更多视为一种程序性权利而非是实体性救济,强化行政权力秩序而非算法秩序以增强民众的信任感。

以个体为锚点的场景化视角

基于算法技术对不同场景的渗透,开展具备精准化、场景化治理目前已经成为发展的共识。目前的场景化治理一方面多停留于公权力视角,从现有公权力运行的思路展开,如依据人工智能的介入程度,将行政行为区分为自动化辅助行政、部分自动化行政、无裁量能力的完全自动化行政、有裁量能力的完全自动化行政等多个级别。另一方面,当下的场景化治理思路依然是算法解释之下展开的。算法解释的治理思路使得行政权固有的模糊性被打破。在实践中,行政权合理范围之内的模糊性是通常固有的,这种模糊性通过较低的层次以具有一定政治性和价值的方式来定义或解决。算法解释使得任何的模糊与不确定无形成为程序上的不正义,进而推演出实体上不正义的结论。此外,基于算法黑箱性,行政人员本身并无法为个体提供可视化的说理,从而使得场景化失去了其固有的意义。公权力视角与算法解释思路下开展的场景下治理,固然在最广泛的层面上提高了社会整体正义的分配水平,但由于其介入的各个场景的复杂性反而使得个体权利被集体权利所湮没。

社会体系的正义与否,本质上依赖于如何给个体分配基本的权利,而这种社会正义的塑造会受到经济发展水平和社会结构的双重挑战。政府算法治理表面上,意味着算法对于业已形成的社会契约论的侵入,使得个人权利的实现更多依赖于行政部门还是相关的技术部门成为一个有待探讨的话题。而更为深层次的问题在于算法所代表的正义观借助公权力,对于个体正义观产生干扰。尽管其在表面上体现为算法理性与个人理性的对抗,如在上海的声呐电子警察第一案中,行政相对人无法对声呐系统的准确性和交警支队提供的违法鸣喇叭证据提出有效的质疑,而这从本质上看算法所代表的可量化的正义观与个人的自发的正义观之间的不对等。算法正义成一种新的理性形式,源于人类理性能力和理性一致的内在有限性。人类理性在算法理性面前的失能,不仅仅需要康德的“以人为中心”的保护模式的重构,更需要个人正义观对于场景化治理的渗透,密切个体在不同场景之中的权利诉求。单纯的依赖算法自身的而缺乏个体视角的治理,很容易陷入自然模型的理想化状态,而忽略个体存在的独立价值。如针对行政处罚场景,除去对于处罚依据的证据判断,处罚的标准、处罚的尺度、处罚的警示效果也是应当关注,而针对行政许可行为,则侧重对于行政相对人的相关行为合法性与真实性的审查。

事前监管思路的介入

就目前而言,我国对于算法决策更倾向于一种“结果性”监管,既有的法律规范仅针对算法收集的方式、内容进行规制,较少涉及算法决策之前的行为规范,如依据何种标准展开算法招标采购。个人信息保护法第60条确认网信部门在个人信息保护之中的协调地位,第61条明确履行个人信息保护职责的部门的具体职责。然这些职责设定均是算法决策的不正义结果的追责,仍属于一种事后型监管,且暗含技术部门全能性设定,即意味着技术部门在最终的算法招标之时须对于后续的政府算法决策的实施结果存在一定的逻辑预设。

这种结果性监管思路源于对于算法介入商业领域的经验,如工信部开展的App侵害用户权益专项整治行动更多针对App非法获取用户个人信息的行为进行通报,进而敦促相关企业的技术整改。然商业领域与公共领域不同,商业领域仅发挥社会基础的资源流动作用,而公共领域基于公权力的介入,而具备对于社会各种资源的规范和调动作用。事后型监管思路仅能起到一定的损失填平效果,而无法对资源的不正常规范进行有效干预。

事前监管首先要求国家必须在宏观层面出台相关的政府算法决策规范原则,设置专门独立的机构为相关公共机构的算法应用提供政策意见与技术资讯。个人信息保护法虽然通过第35条确立了行政机关处理个人信息的“告知同意”原则以及例外规范,将相关情形区分为“告知+同意”“告知+无须同意”和“无须告知+无须同意”三种可能的情形予以处理。然缺乏独立机构监管,同一行政机关可以作为“处理者”,与自然人形成个人信息处理的行政法律关系,也可以作为“规制者”,介入个人信息处理活动。因而仅仅依靠机构的监督与工信部的协调很难真正开展有效监督,由此必须设立独立机构以开展有效监管。同时,独立机构可通过法影响评估制度以对相关算法实施的政策风险开展系统性评估,为政府采购算法提供有益指导。如加拿大自动化决策指令为进一步精准匹配影响等级和监管义务,立法者以风险为基础将评估后的影响等级划分为可逆和短暂性影响、可逆和短期性影响、难以逆转且持续不断性影响以及不可逆转且永久性影响4个等级,从而增强相关决策的科学性。

此外,事前监管思路要求国家必须通过物理层面公共话语空间的扩展以使得相关决策前的听证会起到真正吸收个体意见。算法决策体系是依托一种整体主义的观点进行的逻辑建构,形成的最终结果由于缺乏公共话语空间的滋养较多反应集体意愿,而忽略个体需求。当下政府算法决策的公共意见征集多通过互联网完成,而互联网由于发展样态的复杂,而较多完成了商业价值输出的功能,鲜有对社会整体价值观的有效覆盖与传播。正如哈贝马斯所言“如果选择行政行动系统或‘国家机构’作为参照点,政治公共领域和议会组织就构成了输入方面,有组织利益的社会权力的就是从这里进入立法过程的”,互联网提供的参政议政途径在很大程度提供的是权利观的诉求渠道,而缺乏必要的政府与民主的双向沟通。权利观的最终塑造必须建立在有效的集体讨论与沟通之上。互联网社会出现的权利诉求的断层性使得公众难以对建立在集体主义之上的算法理性得以产生价值共识,依赖单纯的算法问责、算法公开解决的仅是算法理性的自我问题,无法有效建立公众认同,由此必须提供物理层面公共话语空间的扩展推动公众共识的滋养。

往期精彩回顾

目录|《上海法学研究》2022年第3卷

武昊|探析BBNJ协定中海洋保护区管理模式的路径选择——以人类命运共同体为视角

张鹏文|中国加入CPTPP的国有企业规则障碍与破解思路

课题组|上海检察机关服务保障现代化国际大都市建设的实现进路

李元婷|比较法视野下的数据治理规则域外适用与冲突协调

段铭洋|海洋命运共同体下船舶油污基金赔偿法律问题研究



上海市法学会官网

http://www.sls.org.cn



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存