查看原文
其他

马颜昕:自动化行政的分级与法律控制变革 | 法宝推荐

【作者】马颜昕(华南师范大学法学院、政府改革与法治建设研究院特聘副研究员)

【来源】《行政法学研究》2019年第1期,北大法宝法学期刊库。因篇幅较长,已略去原文注释。

【声明】本文仅限学习交流使用,如遇侵权,我们会及时删除。

内容提要:“无人干预自动审批”“秒批”等新的行政方式与传统的交通抓拍同属自动化行政,但在级别上不同。以一定标准可以将自动化行政区分为多个级别,新级别的实现也会带来新的法律变革。部分自动化行政代表了自动化行政的从无到有,也带来了自动化行政的性质确定等方面的法律挑战。无裁量能力的完全自动化行政实现了行政活动中的无人干预,也产生了裁量判断、监督、责任、适用情境等方面亟待解决的法律课题。有裁量能力的自动化决策则是即将迎来的下一次变革,需要对其进行展望和准备。

关键词:自动化行政;人工智能;分级;法律控制


  

近年来人工智能技术的不断突破,让我们触及了一个全新时代的门槛,相关法律问题也成为了法学界研究的一个热门议题。为了回应技术和社会快速发展的需要,新技术的实践有时更是先于具体的法律规定和法学研究。人工智能法律制度的研究有必要也有可能回归到具体实践,从实践中发现真实的问题,从现实世界中提炼理论,立足当下,眺望未来。本文将从行政法的视角,对人工智能在行政领域中的具体运用进行分析和探讨,在类型化的基础上,迎接人工智能时代下行政法治所面临的理论与实践挑战。

一、 问题的提出——自动化行政的具体实践

深圳市2018年5月发布了关于普通高校应届毕业生引进和落户的一项工作方案,其中采用了一种被称之为“无人干预自动审批”的新型行政审批方式。该方式取消了现场报到环节,申请人通过系统提交相关信息,系统自动核查材料完整性并比对信息,如果材料完整、信息无误,系统将自动审批,无需人工审核。审批通过后,系统将会把信息推送至有关部门与申请人,申请人凭系统信息可直接办理后续手续。


  这种方式下,如果申请人的材料齐备,则各环节均无需人工干预,由系统自动作出,效率极大提升,也正因此又被称为“秒批”“秒办”或“智能审批”。国内许多地方(如广西、安徽等)近期也出台了系列措施,推进这种新的审批方式。世界范围内,类似行政方式也正蓬勃展开,如2017年前后德国对相关行政程序法律进行了修订,规定了完全自动化的行政行为,允许行政行为可以完全通过自动化设备作出,而无需人工处理。


  抛开“无人干预完全自动化”的冲击,部分自动化的行政措施其实早已屡见不鲜。最常见的就是交通抓拍,依据我国现行法的规定,公安机关交通管理部门对抓拍记录内容进行审核,系统不能直接作出决定,所以尚称不上完全“无人干预”,但也已经高度自动化。从法治的角度来看,人工智能已经不仅仅是实验室中晦涩难懂的高新技术,同时也已经是具体存在的现实实践,大量法律问题亟待研究:交通抓拍这样的部分自动化行政与传统行政有什么区别?性质是如何?该适用什么法律框架?无人干预自动审批等行政方式又在部分自动化行政的基础上有了哪些发展?在法律上产生哪些变化?未来自动化行政的发展趋势又是如何?会给我们带来什么挑战?这些都有待从法学视角进行观察与分析。

二、自动化行政的界定与分级

(一)人工智能与自动化行政概念的法学界定


  法学研究,首先需要对实践现象从法学角度进行界定。而作为人工智能在行政领域中的具体运用,界定自动化行政首先需要明晰人工智能的概念。有学者将人工智能纷繁复杂的技术性定义总结为四类:拟人思考;拟人行为;理性思考;理性行为。这四类定义从技术上看各有优劣,但从法学的角度,拟人行为定义的参考价值更大。


  首先,法律权利、义务、权力、责任的最终着眼点是行为而非思想,因此人工智能的法学界定同样应该着重于行为。这也与人工智能先驱阿兰·图灵的观点在一定角度上相似,图灵认为机器能否像人一样思考并没有意义,关键是机器能否以假乱真的实现像人一样的行为。


  而之所以选择拟人行为而非理性行为的定义,原因在于虽然现在理性行为的定义在技术界运用最广,但运用到法律概念时仍然不够清晰。理性行为定义关注的重点是机器可以通过行动完成实现理性的目标,在这个定义下,人工智能就是可以通过行动产生最佳的结果,或者是在最优的结果不确定的情况下,实现预期最佳的结果的主体。从监管的角度看,这实际上是将一个难以界定的概念(智能)替换成了另一个难以界定的概念(目标),对于法律监管领域的意义并不大。相比之下,法律体系的权利、义务、权力、责任都是围绕人(主体)构建,使用拟人行为的定义可以很好的将人工智能概念嵌入法律体系中。不过法学意义上的拟人行为和技术意义上的拟人行为(尤其是图灵测试所指的拟人)并不完全相同,其并不强调足以以假乱真的替代自然人,更强调的是能够实现原来由人所承担的特定角色,是一种法律概念上的拟制。


  如此,对于行政法意义上的人工智能可以界定为有能力完成原先是由人所执行的那些任务的系统。而所谓自动化行政,就是人工智能在行政领域中的具体运用,是指行政程序中特定环节或所有环节由人工智能代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政活动。在具体的自动化行政过程中,可以将承担相应功能的人工智能统称为自动化系统。


  (二)自动化行政的分级


  在如上的自动化行政定义下,“无人干预自动审批”、“交通抓拍”等行政活动都可以被纳入其中。但这些行政活动自动化的程度和深度并不一样,需要更加深入的分析和精细的分级,从而实现更加准确的法律规制。


  现在自动化领域中分级最为成熟的是自动驾驶领域。在SAE所制定的自动驾驶标准中,将驾驶任务具体区分为驾驶操作、周边环境监控、驾驶过程中的支援应答三个部分,依据这三个部分中人类和自动驾驶系统的分工不同,将自动驾驶分为了L0-无自动化、L1-驾驶辅助、L2-部分自动化、L3-有条件自动化、L4-高度自动化五个级别。接着依据自动驾驶适用的情况的不同,进一步区分出限定环境下的L4-高度自动化和所有环境下可以适用的L5-完全自动化。


  这种分级的思路在一定程度上值得自动化行政参考:首先对需要完成的任务进行具体化和类型化;然后依据特定部分任务上人类与人工智能系统的分工进行第一轮分级;接着再依据适用场景的不同进行第二轮分级。


  而对于一项特定的行政活动,有学者认为可以区分为观测、分析和行动三个部分。这种区分有一定的合理性。如果把一项行政活动看做是一种对特定实践事件进行法律评价与处理的机制,那么它包括3个必要环节:第一个环节是信息的获取,通过人工、自动化机器识别等方式,将现实世界事件的时间、地点、人物、身份等要素转化为有待进一步识别和处理的信息;第二个环节是信息的分析处理,在这个环节中将对第一个环节所收集的信息进行处理。其中尤为重要的是,将现实世界中的事件抽象化,进而将其与特定法律规范的要件相匹配,确认特定事件该适用什么法律规范,产生什么样的法律后果;第三个环节则是信息的输出与实现,通过一定的行动机制,将上一环节的结果输出到现实世界,对法律后果予以实现。不过在三个部分的具体名称上,观测、分析、行动这三个词汇实际上更加适用于行政执法活动,而对于行政许可等活动,这个框架仍然适用,但是用语上不够精确。因此本文将这三个部分重新命名为:识别与输入、分析与决定、输出与实现。


  比如在一个交通抓拍中,对违章车辆进行识别和证据固定,属于识别与输入;对有关证据进行审核、分析,最终判断是否存在违章、是否需要处罚、如何处罚,属于分析与决定;最终发出违章的通知,进行相应处罚则属于输出与实现。自动化系统最重要的是承担了识别与输入的职能,对违章车辆进行识别和取证。另外在输出与实现部分,现今的技术也通过数据查询、短信通知、罚款自助缴纳等方式提供了部分自动化的形式,仅仅在当事人不主动履行职责时由人工干预进行相应处理。不过依据现行的法律法规和实践,交通抓拍中的分析与决定部分仍然需要由人工进行。


  而对于一项无人干预自动审批来说,其突破在于分析与决定环节也实现了自动化,当材料完整时,系统会进行自动审批,无需人工审核。这就使得无人干预自动审批的确与过去的交通抓拍等自动化行政存在级别上的区别。


  由此,我们可以在第一轮分类上将自动化行政区分如下:


  零级,无自动化行政,该级别中行政任务的各个部分均由人工完成。一级,自动化辅助行政,自动化系统在不同部分可以辅助人工完成一些任务,但是自动化系统尚不能独立承担一个部分。二级,部分自动化行政,自动化系统可以独立的完成特定部分的任务,在该部分中,不再需要人工干预。三级(细化前),完全自动化行政,所有部分均由自动化系统完成,不再需要人工干预。由于行政过程中,分析与决定部分是人工保留的最后阵地,因此这一级别的核心判断标准就是自动化系统是否能完成分析和决定。


  而依据完全自动化行政的有能力适用的范围,可以对第三级进行第二轮分类,进一步细化为两个级别:三级(细化后),无裁量能力的完全自动化行政。自动化系统可以对不需要裁量的行政活动进行独立的全程处理,但对于需要裁量的事项不能适用。四级,有裁量能力的完全自动化行政。此时自动化系统具有了裁量的能力,可以在一定的裁量空间中进行自动化决策。


  至此,经过两轮分类,最终将自动化行政分级为五个级别(见表一)。

 

级别

 

名称

任务的完成体

有能力适用的领域

识别与输入

输出与实现

分析与决定

零级

无自动化行政

人类

人类

一级

自动化辅助行政

人类和自动化系统

共同完成

不涉及裁量

二级

部分自动化行政

自动化系统

三级

无裁量能力的

完全自动化行政

自动化系统

四级

有裁量能力的

完全自动化行政

全部

  (三)自动化行政升级所带来的三次法律变革


  自动化行政级别的每一次提升,都是技术上的重大革命,随之而来的是急需解决的新法律问题。法律规制也必须针对每一次变革的不同情况和不同的阶段进行类型化分析,形成一种法律演进的路线图。从零到一级,和从一到二级,是我们已经经历过的第一次变革,代表应用是交通抓拍,实现了自动化行政的从无到有,带来了自动化行政性质确定等方面的法律挑战;从二到三级,是我们正在经历的第二次变革,代表应用就是无人干预自动审批,使完全自动化行政成为了可能,随之而来也产生了裁量判断、监督、责任、适用情境等方面的法律问题;从三到四级,则是我们即将面临的剧变,在这次变革中自动化系统将介入裁量领域进行自动化决策,带来大量法律挑战。下文将对这三次变革所带来的新法律问题进行分阶段讨论。  

三、自动化行政的法律定性——第一次变革的总结

近几十年来,大量的自动化系统已经被运用于行政之中。很多时候我们甚至没有意识到这也是人工智能的一种,但是分析其内涵,完全符合我们前文中对于自动化行政的界定。这些早期的自动化行政实践绝大部分都属于自动化辅助与部分自动化级别,运用广泛,样态也十分丰富。它们在实践中已经相对比较成熟,也有学者进行了一些理论研究,但也仍然存在许多有待继续研究的问题。


  (一)自动化后行政活动的定性


  自动化辅助行政中由于各个环节仍然是由人工主导和控制,其法律性质变化不大;而在部分自动化行政中,自动化系统可以独立接管特定环节的工作任务,此时是否会对行政活动的性质产生本质性的影响?


  虽然有部分德国学者认为应当区分行政人员作出的“行政行为”与机器制作的“行政产品”,但这一理论未获得学界的支持。德国主流观点认为自动化系统参与并不影响行政行为的成立。行政机关一方面可以通过预先的程序和数据输入来控制和预先设定自动化系统所能进行的工作;另一方面可以通过通知等行为来使自动化系统完成的工作产生拘束力。因此行政机关也应该将自动化系统参与产生的决定视为“自己的”行政行为,要求得到遵守,并予以实施。在德国法上,不仅部分自动化行政所产生的结果属于行政行为,符合条件的完全自动化行政的行为也同样属于行政行为。该观点在近期法律修改中也得到了立法支持。


  从理论上解答这一问题的关键在于确认自然人在行政行为的各个环节中是否为必要条件。如果所有环节中都为必要条件,则部分和完全自动化行政都不得作出行政行为;如果仅仅是决定环节中自然人的处理为必要条件,那么部分自动化行政可以作出行政行为,而完全自动化行政不可;如果在所有环节中都不为必要条件,则部分自动化和完全自动化行政都可以作出行政行为。


  行政行为概念的主体构建始终是围绕着行政主体(或者行政机关)来进行。但是因为行政主体仅仅是一个观念性的拟制存在,其真正行动起来仍然需要具体的承载和手段。作为自然人的公务员在绝大多数时候就成为了行政行为的具体载体,但并非就是唯一载体。事实上我们对于“非人”作出的行政行为早就司空见惯,但没有得到足够的认识。比如通过“集体决定”作出的行政行为。初一看起来,作为组织的集体仍然是由个体自然人组成,认为“集体决定”“非人”,这似乎是“白马非马”的逻辑诡辩。但仔细分析,两者之间确实存在着本质区别。集体决定是通过特定程序和组织结构完成的,这样的程序与结构本身就形成了组织体的自有特征,从而将其与自然人区分开来。


  因此即使是在“分析与决定”这一关键环节,自然人也并非是行政行为的唯一载体,勿论其他环节了。自动化行政行为,乃至完全自动化行政行为在我国也并不存在理论障碍。确认了自动化行政行为的性质,也可以确认其相应的效力与法律控制,从而将自动化行政纳入行政法的整体框架。


  (二)自动化系统设立行为的定性


  交通抓拍中,摄像头捕捉违章车辆,经过人工审核后,作出行政处罚决定并送达当事人。这成立了一个行政行为。那么,行政机关设立交通摄像头这一自动化系统的行为又该如何定性?对于其性质,有两个关键问题需要解决。


  其一,是事实行为还是法律行为?从形态上看,安装交通抓拍摄像头这样的自动化系统设立行为与建设街道、铺设草地这样的事实行为类似。从法律关系上看,自动化系统的设立并不会直接设定、变更或消灭行政法律关系,而只是对后续行政活动的处理流程产生影响。由此可见,单纯的设立行为应当属于事实行为。但自动化系统的设立又有特殊性:第一,会对相对人的程序性权利义务产生重要影响,如交通抓拍对于案件证据方面的决定性改变。第二,在特定情况下也会对当事人的实体性权利义务产生一定影响,如对交通抓拍程序在什么情形下自动启动的设置,就实际上形成了一个判断什么时候构成违章的标准。由于这些特殊性,自动化系统的设立应该受到比一般事实行为更高的法律规制。


  其二,是具体行为还是抽象行为?严格来说,抽象和具体的区分是法律行为的下位概念,但若作更广义的理解,将该区分讨论适用于自动化系统的设立上仍然有其意义。一般认为,抽象与具体的区分标准在于行为所针对的事件和相对人是否特定。但自动化系统设立行为的特殊性在于,它针对的是特定事项,却是不特定人。一个自动化系统设立后,将会针对该系统工作范围内的不特定相对人的设定事项反复适用。这种行为在一定程度上类似于设定公物上相应使用规则的所谓“对物行政行为”或者说“属物性的一般处分”。因此自动化系统的设立在法律规制上也会与一般的具体行为不完全相同,一些对抽象行政行为的法律控制手段也应适用于自动化系统的设立上。


  由上两点可知,自动化行政的设立具有较高的特殊性,在法律控制上也与一般的事实行为和具体行为不同,需要进行特殊的调整。可喜的是在行政立法实践中已经在一定程度上体现出了这种重视,如《道路交通安全违法行为处理程序规定》中对交通抓拍设施的设置的一些特殊规定。


  (三)部分自动化行政仍待解决的问题


  实践中虽然自动化辅助行政与部分自动化行政的运用已经比较成熟,但作为一个新生事物,仍然有许多问题有待解决。


  1. 执法密度的失衡


  高效是自动化行政的一大优势。以行政执法为例,人工执法中,限于人力资源的有限,大量的行政违法行为并没有得到发现和处理。而自动化行政极大的提高了执法效率和执法密度。但这一优势,却在一定程度上也打破了原有执法密度的均衡。自动化行政的出现使得违法行为,特别是轻微违法行为,被以空前的范围和严格性予以处理。如在杜宝良案中,当事人每日驾驶机动车在同一地点违反禁行规定,均被电子监控装置抓拍,累计105次,公安交通部门对其处以罚款10500元的行政处罚。


  包括处罚额度在内的现有执法体系是在传统人力执法的基础上建立的。在这一体系中,考虑到违法行为被处理的概率并非是100%,因此需要适当提高处罚力度,使“被处理概率*处罚力度=违法损失期望>违法收益”,从而利导当事人守法行为。自动化行政大大提升了违法性行为被处理的概率,但处罚力度等其他因素没有得到配套调整,结果就从整体上使得执法畸重,产生公平性与合理性问题。


  2. 公民隐私的危机


  自动化行政时代下的一大特征就在于无处不在的监控和越来越普遍的数据互通,这也构成了自动化行政的基础,但也对公民隐私产生了强烈的冲击。传统上认为隐私止于屋门之前,一旦你步入了公共空间,你就放弃了隐私权,因为你不可能要求公共空间的路人或者警察为了你“关闭自己的眼睛”。而被一个电子设备记录下和被一个警察肉眼观察到这并没有本质的区别。但电子监控设备的密度,已经让人们无处遁行,先进的技术手段更是可以将遍布整个城市的监控连系在一起,可以将孤立的信息融合,分析出更多信息。这样的监控密度,让公民的隐私也已然失衡。自动化行政还要求大量的个人信息集中储存于行政系统的数据库用于识别和分析,如何实现数据互通的基础上防止信息泄露,也是一个亟待解决的实践难题。


  3.信息依赖的担忧


  自动化辅助与部分自动化的出现使得即使是人工决策的行政行为,也越来越依赖自动化系统数据库中的信息而非工作人员的人工判断。但数据信息仍然也存在错误的可能。数据互通进一步加剧了信息错误的影响力,使得其一旦错误,将会在极大的范围内对人们产生影响,且极难纠正。实践中,因为重名、身份录入信息错误等原因被屡次当做逃犯,严重影响正常生活的新闻屡见不鲜;在国外甚至还出现过多起议员、飞机驾驶员因为被错误列入恐怖分子名单而被拒绝登机,且错误名单在很长一段时间内都难以得到有效的更正的事件。信息化时代下的自动化行政的确减少了人工的错误,但对于信息的依赖,也放大了信息自身错误可能导致的问题。

四、自动化行政的裁量、监督、责任与适用情境——第二次变革的应对

“秒批”“无人干预自动审批”“智能审批”等新的行政活动形式不同于过去已经成熟的部分自动化行政,将自动化程度向上推上了一个新的级别,构成了无人工干预的完全自动化。也因此产生了在裁量判断、监督、责任与适用情境等方面的新挑战。


  (一)自动化行政中的裁量问题


  从自动化系统也就是人工智能的处理能力上看,可以大致分为静态反馈与理解决策两个阶段。在第一阶段中,人工智能可以在给定特定输入的情况下,输出固定的结果,完成一些静态的任务;而在第二个阶段,人工智能可以在输入信息不完全的情况下,通过持续的与环境进行交互、收集反馈、优化策略,进而作出理解和决策,完成一些动态的任务。


  裁量就是一种典型的不完全信息下的决策问题。出于立法成本、立法技术、政治考量等原因,立法很难对所有问题予以绝对精确的规定,因此必然存在一定的模糊空间。这种模糊可能是因为不确定的法律概念,也可能是立法授予行政机关对法律后果的自行选择。这就是一种信息的不完全,在此情况下,不能根据确定的前提就必然得出确定的结果,需要进行裁量。


  从现有实践上看,当前的自动化行政技术水平仍然主要处于静态反馈的第一阶段,尚难以对需要裁量的不完全信息进行处理,属于不具有裁量能力的完全自动化行政。比如广西自治区智能审批的前置工作就是“细化量化审批许可条件”“提出可供审批智能化信息系统自动评判的行政审批许可标准”。


  需要注意的是,自动化审批中所探讨的这种“裁量”与行政法中常说的“裁量行政”存在一定区别。裁量行政是与羁束行政相对应的概念。这组概念的区分旨在解决合法性与合理性、司法审查的密度、立法者对行政主体的不同要求等问题。裁量行政中的裁量特指的是立法保留给行政的裁量空间。而在这一空间中,行政可以自行进一步压缩裁量范围,设定更加细化的裁量基准,使得裁量行政中的不确定性予以消除,让无裁量能力的完全自动化行政此时也可以适用。换言之,无裁量能力的自动化行政的适用范围并不限于羁束行政。


  (二)对自动化行政的监督与纠正


  在部分自动化行政中,仍然保留由人工进行审核和决定,因此在行政行为作出的过程中,人工的监督与纠正已经介入。而完全自动化行政的过程中,全程没有人工干预,在现今的技术条件下,还需要构建一套人工的监督与纠正系统,以免人工智能变成了让人啼笑皆非的“人工智障”。实践已经对此进行了一些探索,主要包括在事中和事后两个环节。事中环节中,如果一旦发现与预设程序不符合的情况,将转入人工处理流程;事后环节的监督则包括审批结果公开和网上投诉、材料抽查、信用记录等措施。


  实践中对于事中事后监督的重视有一定的合理性,人工智能这样的自动化系统的开发与研究具有保密、不连续、分散和不透明的技术特点,给事前监管带来了巨大的难题。因此很多时候不得不更多的倚重事中与事后的纠正。但一些重要的事前监督机制仍然有其必要性,比如对适格自动化系统的测试、评估与认证。一个人完成特定的法律工作需要取得一定的资格认证,比如通过法考,人工智能承担完全自动化行政的任务同样也需要一定的事先的认证。


  (三)责任确认难题


  一个人工行政行为的作出流程中,哪些人员参与其中是比较清晰的。但在自动化行政中,每个自动化行政系统将需要许多不同的技术人员或组织来设计、安装、维护、运作和监督,这些技术主体也在一定程度上成为了自动化系统的控制者之一。但他们往往是分散和多元的,不会显身于行政行为的表面流程之中。在实践中,大量自动化系统的设计、安装、运行、维护工作甚至是外包给政府供应商,他们并非是行政机关的一部分。此时就带来了责任承担的难题,一旦自动化系统出现故障导致损失,该由行政机关还是技术人员或组织承担责任?


  正如前文所述,不管是人工行政行为还是自动化行政行为,其真正的主体仍然是行政机关。公务员与人工智能都只是行政机关实现其行政活动的载体,载体的变化并不会改变行政机关和行政行为之间的法律意义上的关系。无论是公务员还是技术主体的错误,行政机关都应当作为行政行为的法律主体,对相对人承担责任。行政机关必须像监管公务员一样对自动化系统予以系统性的监管,而不能把控制权和责任全部甩手给技术主体。在行政机关承担责任后,可以依据法律或合同的约定予以追偿。


  进一步的问题是,行政机关承担的责任属于物产生的损害赔偿还是人产生的损害赔偿?在大陆法系的行政赔偿制度中,可以将行政赔偿的原因分为公务员违法侵权的“人的行为”和公共设施设置和管理有欠缺所产生的“物的瑕疵”两大类型。两者的构成要件与救济程序并不完全相同。如果将自动化系统认定为“机器公务员”,那就应该适用“人的行为”的责任要件,以自动化系统行为的违法性和有责性为前提。而如果将自动化系统认定为“实现行政任务的设施”,那么作为“物的瑕疵”,其责任要件仅以公共设施的设置或管理有欠缺,导致相对人的权益受损即可。由于自动化系统的特殊性,无论适用哪一种归责方式,都可能存在一些问题,因此理论界对此争议也很大。如果一定要将自动化行政嵌入现有的某一行政赔偿类型的分类中,可能会遇到许多难以周延的矛盾之处。鉴于自动化行政行为的运用越来越广泛,在行政活动中的地位越来越重要,将其单独类型化,通过立法与理论修改,确定专门的责任构成要件,也许是一种更为可取的路径。


  (四)自动化行政适用的情境


  随着技术的不断发展,自动化行政能够适用的范围也越来越广,但并非所有情境下都应该适用或可以使用自动化行政。德国行政程序法上对完全自动化行政的适用规定了两个条件:其一,法律保留,即仅当法律法规允许时方可适用;其二,行政机关不存在裁量和判断余地时方可适用。这两个条件对我们也有一定启发意义。不过,对于法律保留来说,作为一个快速发展的新鲜事物,为了鼓励创新,利用技术的发展给人民群众带来真正的便利,在授益行为和不涉及当事人重大利益的简单事项上,法律可以对自动化行政的运用给予概括性的授权,释放创新空间。而对于裁量来说,正如前文所述,自动化行政亦可适用行政机关通过裁量基准自我限定范围后的裁量行政,只要自动化行政在处理该具体事项时“不存在裁量和判断余地”即可。


  另外从识别与输入环节看,自动化行政应当适用于那些事实比较简单、清晰,易于数据化、要素化、类别化的事项。对于情况比较复杂,尤其是需要通过听取当事人陈述或答辩以获得更全面了解的事项,现阶段不宜采用自动化方式。从输出与决定环节看,完全自动化行政只适用于那些简单清晰、程式化强的执行事项,对于复杂的,尤其是需要调解和沟通的事项,不能适用。


  在自动化行政的推广过程中,还尤为需要对弱势群体的利益进行保护。年长者、偏远地区人群、文化水平不高者、残障人群,他们在使用自动化系统时往往存在一定的困难,应该安排专门的人工通道进行协助,否则将可能构成一种信息化时代下的新形式的歧视。

五、自动化决策的法律挑战及其准备——第三次变革的展望

现有自动化行政尚不具有自主决策的裁量能力,然而随着技术的发展,正在发展的下一代人工智能将具备一定程度的适应性与学习能力,能够自主学习,以独特和不可预见的方式与环境互动,从而有能力从不完全信息中进行自动化决策,换言之,将有裁量的能力。这将是一次自动化行政上升到全新等级的质变。在解决现存问题、构建符合现实需要的法律体系的同时,也需要预判未来发展,对下一步的法律变革进行适当准备。


  (一)结果失控、算法偏见与算法黑箱——自动化决策的挑战


  按照本文前述讨论的人工智能的定义,人工智能能够完成像人类一样的目标,但是却未必是按照和人类一样的思路。这使得人工智能的自动化决策不仅速度比人类更快更有效,还有可能得出超出人类想象的问题解决路径。这既是人工智能的伟大优势,同时也蕴含了巨大的失控风险。


  人类的价值无法被精确定义,自动化决策的结果有时就会并不真正符合人类的利益,与人类的价值追求相悖,形成一种价值追求上的失控。有一个经典的寓言可以作为很好的例子:“人类即使在天堂中也总会遭遇苦痛。所以对于人工智能系统来说,减少人类苦痛的最佳策略就是尽早终结人类——人类不存在,自然也就不存在人类的痛苦了。”


  这种价值偏离不仅仅是遥远的科幻小说中的想象,更已经在算法偏见问题中初见端倪。自动化系统往往在人们印象中都是客观中立的象征,不受主观成见的干扰,也没有自己的利益,自然公正无私。但是很不幸的是,越来越多的研究和实践均表明,自动化决策的过程中,因为社会现有历史数据、技术限制、使用的具体环境等原因,有可能在自动化决策中存在歧视与偏差。比如波士顿的一个项目通过智能手机的动作感应系统来向市政府报告道路颠簸情况,以及时解决道路坑洼。然而系统数据显示富裕地区的颠簸反而高于贫穷地区,建议市政资源向富裕地区倾斜。导致这种偏差的原因就在于富裕地区的智能手机和应用程序的数量更高。


  人工智能不仅会在结果上可能出乎人们的意料,在过程上也往往超出了人类的理解。深度学习等算法机制的存在,使得人工智能可以在一定程度上自发学习和演进,其决策过程变得更加扑所迷离。大量人工智能的算法还可能涉及到开发者的商业秘密或者数据来源的隐私保护,使得算法的控制者不愿意将自动化决策算法的具体细节公之于众。这些因素使得自动化决策有时候成为了一个“黑箱”问题,我们只知道输入了什么信息和输出了什么结果,但是对其中的过程到底是怎么发生的一无所知。难以理解其过程,就更难以监督,从而也加深公众对于自动化决策的不安。


  (二)自动化决策的法律控制重构


  自动化决策的种种问题从法学层面上看,根源之一在于传统的许多法律控制手段在面对新技术时已然失效或部分失效。在世界范围内,政府、企业、计算机与法学学者都为重构一个自动化决策的恰当控制体系在不断作出努力和尝试。


  其中受到最多关注的就是试图加强自动化决策过程中的透明度,让人们可以更多的理解算法,进而对其进行监督和检验。如IEEE发布的《人工智能设计的伦理准则》白皮书中多处提出建议,要求自动化系统有能力解释其决策的原因。政府也正在着力推进算法的透明度与可解释性,以增加自动化决策的可控性和安全感。法国政府已经要求公开所有为政府用途开发的算法,让社会能够对这些算法的正确适用进行核实。欧盟《通用数据保护条例》的制定更是在算法领域中引起了巨大反响,极大的提高了对于数据透明度的要求,赋予了公民数据访问权、纠正权等权利。


  虽然有学者提出公众层面对于透明化的追求从技术层面上有时候是没有必要也难以实现的,通过一些技术工具运用,可以在信息不完全的前提下对算法的实效进行检验。甚至进一步说,现实世界本来就不是一个完全信息世界,由于保密信息、政策等原因,我们的现行法律制度实际上也常常基于对部分信息予以监督,这并没有什么大不了。上述观点虽然具有一定的合理性,但是对于公开、透明的追求长久以来已经在公法领域中形成了独立的法律价值。提高透明度不仅可以让自动化决策在一定程度上融入现有法律体系,让一部分现有的法律控制手段继续发挥作用;另外也可以从心理上增强公众的安全感,提高新技术的可接受度。


  在算法中事先嵌入规则底线,作为人工智能决策不可逾越的逻辑前提也是一种被广泛提出的方案。其中最著名的自然是阿西莫夫提出的机器人三原则。德国交通部部长任命的伦理委员会所提出的一个报告也展现了这样的思路:要求算法编写者遵循一系列的伦理法则。但这种做法,只有在一些特定的算法设计模式中才能适用,而用于人造神经网络算法(ANN)这样的模式中却十分困难,因为这一算法的特点就是人类难以控制机器学习的结果。


  此外,正当程序在进行一些适应化调整后也仍然是对自动化决策进行法律控制的有效工具。比如在自动化决策中,自动化决策应该公平的适用于每一个人,程序设计不得区别对待;应该在识别被决策主体身份前就决定并记录决策策略;决策应该可以被重现;决策中的随机性不得被操控等。


  现在自动化决策正处于百花齐放的蓬勃发展阶段,各国各界都予以了高度重视。从长远来看,具体法律制度的构建仍然有赖实践的探索,而现在这些关于自动化决策控制机制的预想与讨论,可以作为我们构建下一阶段更高级别自动化行政法律制度的重要支持。

往期精彩回顾

百万法律人都在用的北大法宝详细介绍!

胡敏洁:自动化行政的法律控制

王禄生:司法大数据与人工智能技术应用的风险及伦理规制

欢迎扫码获取法宝介绍和试用


更多内容

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存