【智能与法】胡敏洁:自动化行政的法律控制
B D A I L C
欢 迎 关 注
自动化行政存在于信息、数据的收集与处理、行政活动电子化以及直接作出行政决定三种情形中,尤其在当下备受关注。它与传统行政活动在主体、程序、裁量等方面都存在着差异,由此潜藏了诸多未来可能出现的法律风险,例如信息、数据收集以及处理的错误风险、对个人隐私和数据保护的侵扰风险、算法不透明所引发的风险等。厘清自动化行政的法律控制要素,即从自动化行政的主体、权利、程序几个方面加以考量,将有助于我们对现有的法律体系进行思考、修正、补充并在需要建构新的法律规则的情形下给予及时补足。这也应当是我们当下对待人工智能时代的态度:谨慎且冷静。
Van Gogh
自动化行政的法律控制
文 / 浙江大学法学院教授 胡敏洁
一、引言
“技术是上帝的礼物——除了生命之外,它可能是上帝赐予人类最伟大的礼物。它是文明、艺术和科学之母。”在《机器之心》一书中,作者预测在未来,2099年,人类的定义将被全面颠覆,人工智能将与人类不再有大的区别。一时间,国内外各专业兴起了一股探讨人工智能之热潮。人工智能在为人类带来便利、效率的同时,又因各种不可预测的风险,使得我们对因此而引发的诸多法律问题充满忧虑。然而,仔细研读文献,不难发现,这其实并非看似一时兴起的新话题,早在1987年,美国学界就开始成立并召开了“人工智能与法律”的第一次世界范围的研讨会。延至今日,已余30多年历史,研讨主题包括“法律推理的模式”;“论证以及政策制定的计算机模式”;“自动化法律文本归类与处理”等。即便在大陆法系,在国内研习行政法学学者所熟知的毛雷尔教授的《行政法学总论》一书中也早有提及,行政自动化意在描述行政机关掌握并借助技术手段,尤其是电子数据处理而来的行政活动。为此,德国社会法典中规定了相应的特殊条款来确认自动化行政的程序问题,税法领域也有类似规定。为何在当下格外令人关注?笔者认为,恐怕很大程度上源于实践中人工智能和大数据技术更为普遍地被适用,加之全国层面上《新一代人工智能发展规划》的发布,这些更为顶层和宏观的国家策略和规划更凸显出这一问题的时代意义。
本文的讨论则将集中于公法领域,主要探究大数据、人工智能在行政领域中的运用可能引发的相关法律问题。研究视角则基于《规划》中提出的这样一个基本判断,即:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”
那么,聚焦于法学层面上,人工智能给我们的法律秩序提出了哪些挑战?我们既有的法律框架是否会被全面打破?这是本文试图回答的核心问题。此外,需要说明的是自动化行政并非规范意义上的概念范畴,而是一种描述性用语,意味着行政决定、程序等内容的图示化以及智能化,借此来指通过人工智能、大数据等展开的行政活动。故此,大数据和人工智能的关系在于前者构成了人工智能之所以可以运作的基础,也是人工智能的主要“血脉”。
二、自动化行政的适用场景
《新一代人工智能发展规划》(以下简称为《规划》)中指出开发适于政府服务与决策的人工智能平台,研制面向开放环境的决策引擎,在复杂社会问题研判、政策评估、风险预警、应急处置等重大战略决策方面推广应用。此外,教育部、卫生部、工业与信息化部等都制定了相应的部门规章以此来推动AI的发展。基于这一规划,自动化行政当下以及未来大体可以表现在如下几种情形之中。当然,依严格界定,自动化其实是智能化的前期阶段,换言之,一般而言,首先可能在行政活动中会基于网络出现电子化,如电子化申请、审批;其次,会进入自动化阶段,即根据大数据自动处理生成相关结果,如人脸识别;最后,才是最狭义上的智能化,即倚靠人工智能来实现行政目标。在本文的讨论语境中,将这几个相关的问题都纳入在广义的自动化行政范围之内,泛指借助机器、数据、互联网来展开的行政活动。
(一)信息、数据的收集与处理
按照AI存在的可能空间和强度,首先会被广泛用于信息的收集与处理,主要表现在信息被流程化的接受、搜集以及处理,由此形成信息系统并进而处理事务、操作数据、触发响应以及与其他数字系统进行通信。人工智能在传统的“决策辅助系统”(decision support system)之外还可以具有明确的顾问角色,通过整合相关数据(assembling relevant data)来支持决策过程,辨识政策制定者所关注的相关问题及主题并生成书面意见。这是因为人工智能在信息数据的搜集、处理上具有明显优势。
例如,借助人工智能所进行的大数据分析,来确定某一城市的交通管制措施。如很多地方推进的智慧交通策略,通过其中的数据分析,可以更加清晰地了解交通政策中的行人、机动车、电动车等各种交通工具的违章情形以及可能修改、适用的规则。人工智能所储备的数据,可以使人实际体会到政策和结果的相关性。政策如何制定需要考量其中的“数值”,也就是说通过人工智能可以更好地发现政策制定中的变量。由此,这种变量分析越细致,相关的政策制定越具有科学性。再比如,通过互联网数据分析,可以判断出某类广告的受影响群体,例如是否会适合儿童?这些都会促使政策制定以及决策的优化。概言之,通过人工智能的数据分析,行政机关以及政府可能可以形成更富有科学性和满足多数人需求的规则。包括《规划》中所提及的复杂社会问题研判也是其中一例。此外,通过收集政策执行的相关数据,人工智能可以发挥政策评估的功能。例如,通过大数据的精确分析,运用分类或聚类的方法分析混杂数据,对备选方案的经济、政治、社会、行政、风险方面作出判断。
(二)行政活动的电子化
以及后续行政活动展开之基础
传统的行政活动也需要一定的信息引擎,如调查等方式来确定相关信息,以决定后续行政决定。但是,在人工智能时代,AI可以成为一种行政活动的电子化形式,抑或构成后续行政活动展开的基础。
前者例如,行政处罚、行政许可等领域的电子化。如在线申请信息公开申请、在线申请行政许可。根据《政府信息公开条例》第20条第1款规定,“公民、法人或者其他组织依照本条例第13条规定向行政机关申请获取政府信息的,应当采用书面形式(包括数据电文形式);采用书面形式确有困难的,申请人可以口头提出,由受理该申请的行政机关代为填写政府信息公开申请。”基于相关规定,数据电文形式常常指以电子、光学、磁或者类似手段生成、发送、接收或者储存的信息。再如电子证照的普遍采纳,以广东省食品药品监督管理局为例,包含药品生产许可证核发、变更、换发;互联网药品信息服务资格证书核发、变更、换发等48项证照都已实现电子化,这些证照的核发本身构成了一种电子化形式的行政活动。
后者例如行政处罚中的电子眼所收集的电子证据,通过对车辆检测、光电成像、自动控制、网络通信、计算机等多种技术,对机动车闯红灯、逆行、超速等违章行为进行全天候监控并根据违章信息进行事后处理。当下,电子眼已被扩展使用到包括行人、非机动车的监控之上。就此,也引发了诸多争议,后文将进一步加以探讨。
(三)直接作出行政决定
基于人工智能的相关理论,人工智能分为强人工智能、弱人工智能两种类型。前者认为,可以制造出真正能推理和解决问题的智能机器。并且,这样的机器人将被认为是有知觉且有自我意识的。可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观体系。有和生物一样的各种本能,比如生存和安全需求。一旦这样的人工智能出现,则相当可能直接作出某种决定。
然而,在弱人工智能的观念下,AI始终是受到人类控制的。即便如此,AI也只适合在一些具有重复性、技术性的工作上,例如可能被用来作出一些程序简单、事实清晰的交通处罚决定。国际层面上,较早提出人工智能适用空间的“国际人工智能与法律会议”(ICAL)上便认为,AI在未来的法律适用上,主要可能被用以法律推理论证、决策;电子取证以及其他具有重复性的法律任务。故此,在行政活动中,恐怕更是如此。即便伴随着自动化行政、AI可能带来的冲击,但在当下以及未来相当长的一段时间里,考虑到行政权力有着诸多不可让渡的空间且涉及到国家等基本概念之存系,多少类似于私主体对于行政活动的参与,人工智能恐怕不适合也不会被用以承担更多的直接行政决定作出。
综上,上述三种不同类型,可按AI的自我学习能力强弱分为三个阶段,即信息收集的自动化——流程或手续的自动化——智能流程的自动化。在第一个阶段,AI可以自动收集获取某种数据,形成一定的结构化;第二个阶段,按照预先确定好的流程进行复杂计算,访问基本知识存储库,集成至流程中以优化结果;遵照算法以及复杂的流程进行判断;最后一个阶段,AI拥有自主决策以及自我修复能力,可以使用AI对流程进行重新设计、重组,对信息进行推理,通过高级算法、自然语言处理、机器学习等实现人机互动。这三种类型中的法律关系以及引发的相关问题有所差别,下文将进一步给予分析。
三、自动化行政所带来的法律风险
围绕上述三种可能情形,自动化行政所引发的问题也是多层次的。当然,这些问题也并不具有泾渭分明的界限。而这些法律风险的彰显恰恰为我们展示了自动化行政与传统行政活动之差异,具体包括:行政裁量的手续化、程序的缺省、数据的流通更容易侵犯隐私权、传统的法律规范可能由算法所替代。例如,传统行政活动始终围绕裁量展开,自动化行政则将这种裁量大幅度压缩;程序上,自动化行政也不再强调程序的步骤、方式等,而是将所有内容杂糅进入既定的算法之中,自动得出结果;传统行政活动中也有大量信息收集,但自动化行政的数据从哪里来到何处去,均处于一个黑箱之中,无从得知,尽管我们可以依靠计算机日志等来加以判断,但这显然不同于以往的结构。进而,法律规范在既有的依法行政原理之外,更需考虑如何将算法等纳入其中。这些差异多多少少都体现在下文所述的三点法律风险之上,虽不全面,但可窥见一斑。
(一)信息、数据收集以及处理的错误风险
以人类为中心的行政活动,其重要的特征便在于裁量。尽管我们对裁量存在各种诟病,但却事实上发挥了个案情境下的最优化处理效果。例如,在授益行政中,考虑个人的实际收入情况;在侵害行政中,考虑是否是首次违反行政法律规范,是否可减轻或者不予处罚。然而,在自动化行政中,这种裁量的空间将大幅度被压缩。出于对人工智能的信任,如果对机器的建议不加怀疑,那么人工智能的决定在事实上就已经变得自动存在了,并且没有人类的监督。但是,如果人类质疑人工智能的建议,那么在他们做出错误决策的时候这个人就非常可能会被视为鲁莽行事。但实际上,自动化行政也会出错,这种错误可能表现在如下几个方面:
1. 信息或者数据收集错误:作为一种技术,代码总可能会出现各种错误。机器深度学习总有出现漏洞(bug)的可能性,这些都会使AI输入错误的结果,而这些错误的结果加之不断的重复处理,则可能会使得人工智能系统崩溃。
2. 信息真实但却与结果之间不具有因果性:还可能出现一种情形,即收集信息等正确无误,但却与结果勾连在一起,可能出现了某种不相关性甚至偏差。典型的例子如电子眼在收集相关数据时,并未全程、全面记录整个过程,导致依靠了片面性的画面做出相关行政处罚决定之后果。这些因果关系的缺失或是因为原先算法缺陷导致的错误,也可能是因为这些情形根本无法被AI所周知。例如,弱人工智能无从判断社会救助申请者实际的个案状况,如一些需要社会工作者去作出情感判断的该申请者存在因家庭贫困所带来的精神困扰。
3.人工智能的自身缺损:人工智能自身的物理损害、其他类似电子设备的自然损害等,这些客观的物理损害导致数据抑或信息的收集本身并不可靠。基于这些错误,可能会导致错误的决策、决定,甚至损害公民权益的情形出现。
(二)对个人隐私及数据保护的侵扰风险
隐私权又称“私生活秘密权”,目前学说上的定义存在较多分歧,但一般都认为,隐私权是以个人隐私为客体的一项人格权,是指公民享有的私人生活安宁和信息受保护,不被他人非法侵扰、知悉、搜集、利用和公开等的权利。一是私生活“不被了解的权利”,二是“自己的信息自己掌握”。个人数据则包括个人的姓名、家庭住址、照片、邮箱、银行记录等信息。技术的进步使得法律的保护效果带有诸多不确定性,也容易暴露其中的不完备情形,较为集中的会体现在海量信息、数据的收集和可能的泄露之上。单一、独立的信息记录系统无关痛痒,但是一旦通过自动化技术相互整合和链接,它们就会渐渐蚕食我们的个人自由,尤其是个人隐私。根据世界经济组织的报告,个人数据评估框架包括如下内容:“个人的数据识别信息——数据个性化——数据痕迹——衍生数据”,进一步,从信息流来看,可能包括三种类型:(1)大的计算机数据库——私主体;(2)公共数据——商业组织及其它私主体;(3)私主体所拥有的数据,通常是一些大公司所拥有的数据——政府数据库。
这其中可能会出现大的技术性垄断企业,如阿里、UBER等出现信息泄露的可能性;出现某些大型企业所掌握的信息被泄露的情形,例如国泰港龙泄露乘客相关信息事件;出现基于个人数据痕迹进行的不适当推送,如通过浏览相关网站的分析,不断推送相关主题广告;再如公共性的数据被不适当的泄露或售卖给商业组织,例如个人通过盗取交通系统内的车牌号码等信息,不当谋利等等。再或者,人脸识别技术可以在用户完全不知情的情况下,将用户的人脸图像与嫌犯列表的人脸图像进行比对,嫌犯列表可以被置换成任何列表,被用于维护公共安全以外的非正当目的,技术上没有任何难度。使用者在其使用范围内,借助这些系统,遗留下许多“数据痕迹”,这些都存在着各种不当利用的风险。
在自动化行政的范围之内,政府是公民信息的最大拥有者,它拥有的不仅是“价值连城”的个人数据,还是涉及公民核心隐私的“火药库”。对于政府而言,它不仅富有监管政府掌握信息的相关数据库职责,同时也对于数据、信息的流通具有一定的监管职责。对于前者而言,如何开发更为可靠的安全系统,确保政府数据库的安全性是核心问题;而后者会由于信息的流通性、不确定性更加充满难度。此时,需要衡量政府管理的目标、社会的信息利益、个人隐私权与数据权之间的关系,这也是企业、政府都需要去共同面对的数据保护问题。
(三)算法不透明所引发的风险
各国传统行政法都关注程序问题,自动化行政的发展却使行政程序的很多内容缺省了。例如,借助代码、指令,可以免去说明理由、听证等传统程序法中的基本制度规定。如:(1)不适用于一般规定,无须机关领导签名或者复制其签名;(2)可以用标志说明行政行为的内容;(3)可以不说明理由;(4)没有必要事先举行听证。这些程序的缺省,一方面提高了效率并且看起来使得自动化行政的决定具有更大的精确度、准确性,但是由于算法本身的黑箱特征,也引发了诸多其他问题,至少包括算法歧视、算法结果的不可预测性、由此得出的算法审查以及责任承担问题。
原因在于,一般来说,算法的运作过程通常包括构建一个基于历史数据的模式;编码的形成;搜集并提供算法输入的相关数据;适用既定的算法程序;基于数据分析链条预测结果及建议,基于这些步骤,代码、程序等过程都会形成一个“黑箱”,即使我们公开那些难懂的代码,也会面临着内部推理过程无法知晓的黑箱困境,算法本身是基于人工智能的自身运行,人类并不能真正去控制和比较这些数据。由此,依靠AI得出的结论可能是似是而非甚或错误的。例如,对有关主体的位置、年龄、身体状况、政治面貌等做一些似是而非的推论,可能造成代码歧视等。加之企业也可能会认为算法是自己的商业秘密或者私人财产,就更使得算法的不透明成为了一个普遍问题。在这种情况下,如何审查算法也是一个未来的新问题。从“成本-效益”分析的角度来看,解密算法从而使之透明化可能需要花费非常大的代价,可能远远超出所能获得的效益。此时,人们只能尝试对不透明的算法进行审查,但却并不意味着一定可以获得一个公平结果。即使政府在公平度、透明度等方面不断强调,但算法自身的复杂性和专业性,对各方来说,依然是个挑战。
四、自动化行政的法律控制要素
因为未知所以恐惧。人工智能早在图灵世界中便已存在,再度受到社会各界关注,多少是因为以AlphaGo为标志,人类失守了围棋这一被视为最后智力堡垒的棋类游戏。尽管人工智能会带来社会、经济等全方位的改变,但在真正的强人工智能出现之前,我们仍然应当是乐观的。具体来看,自动化行政的法律控制要素应当从主体上厘清AI与人类的关系;内容上,确保数据权保护为核心;程序上,建构公开、透明且具有可救济途径的程序。
(一)主体上:厘清AI与人类的关系
在文章第一部分所梳理的几种可能适用情形中,AI的地位可能是:
(1)政府治理的手段与工具:如电子眼;再如目前智慧城市建设中所设定的信息收集功能,如某一路段的车流量控制,借助数据和AI对备选方案的经济、政治、社会、行政、风险方面作出判断。这些情形下,借助AI,更多地实现了一种行政活动的数据化和电子化,某种意义上,这是一种政府的治理手段和工具,其目标在于为政府的决策、规划、政策制定以及立法等提供数据分析与支持。
(2)人类的代理者:如诸多学者所担心的法律职业是否会被AI替代?由AI直接从事某一行业,如提供老年人护理等服务甚至进行法院审判。此时,更多情形下,AI是人类的代理者,代替人类来进行相关的服务。换言之,解放人类的双手和大脑。
(3)强人工智能时期可能具有独立法律人格?《关于机器人伦理的初步草案报告》中对机器人的责任进行了探讨,认为最终法律需要对机器人的本质问题作出回应,其是否应当被当作为自然人、法人、动物或物,或者法律应当创设出新的法律主体,在权利、义务、责任承担等方面具有其自身的特性和内涵。
当下,更多的情形集中于(1)、(2),也就是本文在第二部分所描述的第一种、第二种情形。由此,相关的问题大体上展现为数据收集的错误、机器故障等内容。
对于前者,参考欧盟最新的《普通数据保护法规》(GDPR),其中规定,“数据主体享有不受仅依靠自动化处理而产生的决定制约之权利,这其中包括人像采集,将对他(她)产生类似或明显的法律效果。然而,这一款适用的例外情形时,(a)对于数据主体和数据管理者之间的合同建立、履行富有必要性;(b)数据管理者经由欧盟或其成员国相关法律授权,已规定了保护数据主体权利以及自由、正当利益的适当措施;(c)数据主体明确同意。我国《网络安全法》第41条也规定:网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。网络运营者不得收集与其提供的服务无关的个人信息,不得违反法律、行政法规的规定和双方的约定收集、使用个人信息,并应当依照法律、行政法规的规定和与用户的约定,处理其保存的个人信息。
仔细分析上述几点要素,实则在很多旨在以搜集信息为目的的自动化行政中,法律关系上主要围绕数据实际的拥有者以及数据主体展开,这其中可存在彼此基于合同关系再或经过利益衡量,进而到私主体的自我同意而认可数据使用的正当性。进而,应当赋予单纯依靠自动化的违法决定撤销或者无效的法律后果。此外,技术上,可以通过设定一定的参数等,来补入特定情形下人工的裁量情形。或是探求出措施,使得决定结构能够根据该行政领域的特殊性弹性地进行。
如果是第二种情形,即代理者的情形之下,美国学者已经研究认为,并不影响传统的不授权原则。因此,出现了法律问题,应当更接近于类似自动驾驶汽车的法律责任承担,作为人类的代理者,制造、投入市场的厂商应负主要法律责任,而其他人则需要根据个案来决定责任承担。例如,针对老年人的护理机器人,可能相应的监护人也有承担责任的需要。
(二)内容上:以数据权保护为核心
关于人工智能背景下的权利,其实发端于互联网时期所讨论的隐私权,早在1890年,美国学者沃伦和布兰戴斯便在《哈佛法律评论》上发表文章提及隐私。到今日,隐私的侵犯可能性和缘由因为互联网、大数据、人工智能的进一步深化,变得更容易且更隐秘。此时,隐私的观念也开始发生变化,即从原来单纯强调权利的被侵犯,转向强调个人因此可能具有的信息权、数据权等。例如,国际标准化组织对数据的定义是,数据是对事实、概念或指令的一种特殊表达形式,这种特殊表达形式可以用人工的方式或者自动化的方式进行通信、转换或者加工。公众由过去的数据接受者成为了数据的提供者,政府通过高度细分、数据挖掘等为公众配送个性化信息,实行信息公开、在线服务和互动服务。欧盟指令至少提供了两种层面的保护:纵向与横向,纵向指控制者——数据客体;横向指 使用者——使用者;因为并没有非常清晰的控制者和数据客体,因此实际上后者更为可行。我国《民法总则》第111条规定自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。《国务院办公厅关于印发互联网+政务服务技术体系建设指南的通知》、《互联网行业十二五规划》等文件中都对加强个人数据保护提出了新要求。
大体而言,在人工智能、大数据时期,个人信息的收集更为迅捷,由此更容易产生隐私侵扰问题。这种侵扰来自于很多环节,如下图所示,存在于数据收集、处理、利用环节。故此,需结合这些不同的阶段来考虑其中存在的问题,首先考察数据收集、处理的合法性以及合理性;进而考虑数据的合法、合理利用,最终落实到数据赋权,尤其以数据隐私权为核心的保障之上去。这其中手段很多,如程序保障、严格限制利用等,无法逐一详论,但是当还处于弱人工智能时期,尤其当对隐私、数据的使用抱有谨慎态度,防止数据的过度开发和滥用。具体阶段和每个阶段所需要格外关注的内容,如下图所示:
当然,除了以数据权为核心的保护内容之外,实际上人性尊严、平等等传统的公法价值和保障也依然是历久弥新的话题。
(三)程序上:建构公开、
透明且具有可救济途径的程序
诚如上文分析,自动化行政省去了听证、说明理由等重要程序内容,这些都会因算法或机器错误产生严重的损害后果。由此引发的一些程序问题,其中一部分仍可归在传统的程序保障路径之中。根据自动化行政中AI在行政活动中的不同作用,当其作为信息收集和处理的主要工具时,程序要义更重要的在于信息收集数据对于个人隐私的保护;而在作为后续行政活动展开基础的意义上,例如利用电子眼监控的行政处罚行为等,由此应当赋予公民这样的权利,即仅依靠相关的自动化手段所作出的行政决定等,公民可以主张相关内容的可撤销或者无效,这并不妨碍非AI背景下的救济途径。
然而,基于自动化行政,尤其是直接作出行政决定的情形之下,如何去审查算法则是核心问题。已有学者整理并指出诸多问题,包括如果算法、模型等可以被直接审查,人们需要审查什么?对于“技术文盲”而言,审查算法是一件极为困难的事。人们如何判断算法是否遵守既有的法律政策?在缺乏透明性的情况下,如何对算法进行审查?这些问题是否在根本上挑战了固有的程序框架?美国学者用“技术性正当程序”观念来试图解决这一问题,即通过强调编码公开、开发公众参与程序、系统软件测试等来实现程序所要求的透明化、公开和可问责等要求。实际上,仔细分析不难发现,利用自动化程序所作出的决策、决定,从其本质来看,仍旧是一种行政法需要规范的行为,只是由于过程乃至结论上的电子化、数据化、智能化,遮蔽了其原有的行为属性。更困难的问题在于,大数据和人工智能使得公民在理解相关的决策时,具有一定的困难度。例如,如何理解编码?即使编码已经被公开。再比如,算法所造成的歧视如何依靠程序来避免等类似问题。这些其实都要求行政专长和技术人员的介入,从程序法的视角来看,不是简单的要求公开,更重要的在于编码可识别化、可视化,即借助技术和专家的力量,使得普通公众能够知晓数据的来龙去脉以及相关依据。
概言之,自动化行政所带来的程序以及救济问题,究其本质,未来应着重考虑如下几点:(1)提高算法等技术的可理解性;(2)说明理由、听证等基本程序制度的运行,更需依赖富有专业性的技术官员。(3)数据跟踪、纠错等技术的完善。从法律框架的设计上来看,这几点要素应该给予格外考虑。
五、结语
在地上,在天空,机器人无处不在;
在太空,在海底,机器人在探险;
……
晚安!机器人无所不在
本文所采用的自动化行政是个具有延展性的概念,在未来与强人工智能相链接。我们无法预知究竟这一时间点会是何时,但从当下如火如荼的相关研究中不难看出,大数据、人工智能所带来的问题让人觉得重要且不安。实际上,人工智能早在图灵世界中便已存在,再一次受到社会各界关注,多少是因为以AlphaGo为标志,人类失守了围棋这一被视为最后智力堡垒的棋类游戏。在各国人工智能战略和资本市场的推波助澜下,人工智能的企业、产品和服务层出不穷。第三次人工智能浪潮已经到来,这是更强大的计算能力、更先进的算法、大数据、物联网等诸多因素共同作用的结果。人们不仅继续探寻有望超越人类的“强人工智能”,而且在研发可以提高生产力和经济效益的各种人工智能应用(所谓的“弱人工智能”)上面取得了极大的进步。而法律天然追求规则、稳定,而人工智能使得这些看起来更富有规则性和稳定性,这多少有些类似的特征使得法律有被替代的危机和惶恐感。机器人是否在未来具有独立的人格,是否可以成为法律上的主体,更需要我们另行考察。
而实际上,通过本文的梳理,大体认为,在强人工智能尚未出现之前,法律体系中的更多问题存于如何确保自动化行政的公平、合理以及合法。这些问题确给既有的法律体系产生了冲击和挑战,集中体现在如何处理规则与裁量、黑箱与透明、权利与数据流动的关系。围绕这些关键点,对我们现有的法律体系加以补充、修正,或可更为冷静地对待人工智能时代。回应本文最初的观点,AI时代的到来的确为法律秩序带来了各方面的挑战,自动化行政毕竟为带有提高效率、更加程式化和便捷等优势,进而,探求其中法律与技术的进一步结合将会是我们未来长期的研究命题。
参考文献:
[1] 胡敏洁(1979-):浙江大学法学院教授,博士生导师。本论文受浙江大学光华法学院“人工智能与法学专项课题”资助。
[2]【美】雷·库兹韦尔:《机器之心:当计算机超越人类,机器拥有了心灵》,胡晓娇、张温卓玛、吴纯洁等译,中信出版集团2016年版,第304页。
[3] 据不完全统计,清华大学、北京大学、南开大学、浙江大学、西南政法大学等国内诸多知名高校都开始设立人工智能研究实验室、法律问题研究中心等。
[4] Bench-Capon, T., Araszkiewicz, M., Ashley, K. et al. “A History of AI and Law in 50 Papers: 25 Years of the International Conference on AI and Law,”Artificial Intelligence and Law
[5] September 2012, Volume 20, Issue 3, pp 215–319, https://doi.org/10.1007/s10506-012-9131-x,访问日期:2018年12月20日。
[6] 【德】毛雷尔:《行政法学总论》,高家伟译,法律出版社2000年版,第438页。此外,马颜昕副研究员也将自动化行政区分为自动化辅助、部分自动化、无裁量能力的完全自动化以及有裁量能力的完全自动化等多个级别。参见马颜昕:《自动化行政的分级与质变》,《行政法学研究》2019年第1期。
[7] 可参见查云飞:《人工智能时代全自动具体行政行为研究》,《比较法研究》2018年第5期。
[8] 《新一代人工智能发展规划》((国发【2017】35号),国务院2017年7月8日印发实施)。
[9] 英美法的相关用语可参见Frank Pasquale & Glyn Cashwell, “Four Futures of Legal Automation” , 63 Disc 3. University of California Review . (2016),pp28-47.作者提出了未来法律自动化的四种模式,认为根据任务的复杂程度,自动化程度也会有所区别。
[10] 【日】松尾丰、盐野诚:《大智能时代:智能科技如何改变人类的经济、社会与生活》,机械工业出版社2016年版,第59页。
[11] 可参见《中华人民共和国电子签名法》(2004年8月28日中华人民共和国主席令第18号公布)第2条。
[12] Danielle Keats Citron & Frank Pasquale, “Due Process for Automated Predictions”, Vol.89,Washington Law Review (2014),pp1-33.
[13] 腾讯研究院:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第269页。
[14] 尽管,AI时代改变了国家的物理界限,但国家的概念恐怕仍将存在。可参见【日】松尾丰、盐野诚:《大智能时代:智能科技如何改变人类的经济、社会与生活》,机械工业出版社2016年版,第59页。
[15] 例如,郑州市金水区人民法院行政判决书【2014】金行初字第124号行政判决书中,原告认为,被告使用违法采集的、不具有法律效力的电子眼信息作为处罚依据,不合法。所采用的电子眼均没有依法向计量法规定的政府计量监督管理部门申请安装检定和强制性年度检验,违反《中华人民共和国计量法》相关规定。根据《公安部关于规范道路技术监控设备的通知》(公道通【2007】54号)中的规定,未依法检定、逾期未检定或者检定不合格的监控设备,不得继续使用。
[16] 参见欧盟GPDR第4条。
[17] World Economic Forum, White Paper Shaping the Future Implications of Digital Media for Society Valuing Personal Data and Rebuilding Trust January 2017 End-User Perspectives on Digital Media Survey: Summary ,White Paper, January 2017, https://www.weforum.org/whitepapers/valuing-personal-data-and-rebuilding-trust,最后访问时间2018年12月20日。
[18] Peter Swire, “Social Networks, Privacy and Freedom of Association: Data Protection v. Data Empowerment”.90 North California Law Review (2012) ,pp1371-1416.
[19] 【德】毛雷尔:《行政法学总论》,高家伟译,法律出版社2000年版,第445页。
[20] Anupam Chander, “The Racist Algorithm?”, Vol 115, Michigan Law Review(2017),pp1023-1045.
[21] Diakopoulos N, “Algorithmic Accountability”, 3(3) Digital Journalism,(2015)pp398-415.
[22] 腾讯研究院:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第230页。
[23] Article 22, Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
[24] Cary Coglianese & David Lehr, “Regulating by Robot”, Vol 105 Georgetown Law Journals(2017),pp 1147-1222.
[25] A., Geistfeld, Mark, “A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation”,Vol 105 California Law Review (2017),pp1611-1694.
[26] Warren and Brandeis, “The Right to Privacy”, 4 Harvard Law Review (1890),pp193-220.
[27] Peter Swire, “Social Networks, Privacy and Freedom of Association: Data Protection v. Data Empowerment”, 90 North California Law Review (2012) ,pp1371-1416.
[28] 《国务院办公厅关于印发互联网+政务服务技术体系建设指南的通知》(国办函【2016】108)。
[29] Omer Tene & Jules Polonetsky, “Symposium Issue: Privacy in the Age of Big Data: Privacy in the Age of Big Data: A time for Big Decisions”, 64 Stanford Law Review (2012),pp 64-80.
[30] 参见Diakopoulos N, “Algorithmic Accountability”, 3(3) Digital Journalism (2015),pp398-415.
[31] Danielle Keats Citron, “Technological Due Process”, Vol. 85,Washington University Law Review(2007),pp1249-1313.
[32] Sue Fliess, Robots, Robots Everywhere! (2013). 转引自 Melanie Reid, “Rethinking the Fourth Amendment in the Age of Supercomputers, Artificial Intelligence, and Robots”, Vol 119, West Virginia Law Review(2017). pp 863-890.
文章转载自中国宪治网
仅作学习交流之用
Van Gogh
往期荐读
编辑:韩雨硕
欢迎点击“阅读原文”