何渊:智能社会的治理与风险行政法的建构与证成 | 法宝推荐
【作者】何渊(上海交通大学凯原法学院副教授,法学博士)
【来源】《东方法学》2019年第1期,北大法宝法学期刊库。因篇幅较长,已略去原文注释。
【声明】本文仅限学习交流使用,如遇侵权,我们会及时删除。
内容提要:人工智能的成功将是史无前例的,但充满不确定性、失控性及全球化的风险却如影随形般威胁着人类社会。需要重构一个以多元、开放、分享为基本特征的风险治理体系,市场、社会及国家这三种治理机制循环往复,时而正向运动,时而反向运动,同时还包括国家内部的立法与行政、中央与地方之间的双向自循环系统,共同形成一个整体的四重双向治理生态。这给行政法实现从“秩序行政”“给付行政”到“风险行政”的转型提供了历史契机,以“风险”和“治理”为基石的“风险行政法”应运而生。
关键词:人工智能;风险治理;四重双向法律治理体系;风险行政法
引言
在农业社会,人们通过植物和动物认识世界;在工业社会,人们通过蒸汽机征服世界;在互联网时代,人们通过路由器连接世界;在人工智能时代,人们通过大数据和算法改造世界。就像望远镜让我们能够感受宇宙,显微镜让我们能够观测微生物一样,人工智能正在改变我们的生活以及理解世界的方式。一次脱胎换骨式的重大时代转型正在开启,人工智能的发展不仅在生产和商业领域,而且在运输、医疗、救援、教育、金融、农业和司法等领域,起着提高效率、减少消耗、增强安全水平和提供更高质量的服务的作用。北京、上海及重庆相继出台规范性文件来监管自动驾驶汽车的路测行为,机器开始正式出版诗集和画集,智能顾投已经替代人类完成一些复杂的金融交易,面部识别软件也开始运用到海关、火车站等场景的安全检查,甚至用于识别恐怖分子。
但脱胎于现代性的人工智能风险也如影随形般发生了,数据涉及的隐私权问题频发,年初支付宝年度账单默认勾选《芝麻服务协议》被质疑侵犯隐私权,百度涉嫌侵害消费者个人信息安全被江苏省消保委提起公益民事诉讼。而算法涉及的政治伦理问题也开始显现,特朗普团队利用数以千万的Facebook数据,通过挖掘算法使总统大选获胜;世界上首起UBER自动驾驶汽车公共道路致死案也在美国亚利桑那州发生。随着平台企业将人工智能的商业逻辑推向极致,大数据和算法潜在的风险和“创造性破坏”也必将随之爆发,国家主权、生产关系、社会结构及法律秩序等关键议题都面临着“颠覆式重构”。这集中体现为隐私与数据权、数据歧视、伦理与人格尊严、生态、就业、贫富两极化、国家能力及国家安全等系列问题。正如马斯克所说:“人类下一个生存威胁恐怕就是人工智能。对于人工智能应该在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来。”
基于此,笔者主要讨论的是人工智能的风险以及人类的法律应对。一方面,以费雪的“行政宪制主义理论”为依据,提炼出核心法律问题是“法治政府”在人工智能风险治理中的作用、性质及理想类型;另一方面,以波兰尼的“双向运动理论”和莱斯格的“代码2.0理论”为依据,在“法律(政府)、市场、准则(社会规范)、架构(代码)”等机制之间构建人工智能风险的四重双向法律治理体系,“风险行政法”也许正是我们公法学人在新时代的新贡献。
一、人工智能风险的法律特征
生活在人工智能时代,不像是处在一辆被小心翼翼控制并熟练地驾驶着的汽车之中,更像是坐在朝向四方疾驰狂奔的不可驾驭的野马身上,胆战心惊,更不知道未来会发生什么。人工智能风险的本质正是现代性的后果,是一种人为的技术风险,不是自然带来的。由此产生的“社会可接受性”更是加剧了人类行为的不确定性,这种现代性风险既不分阶级,也不分国界,而且还是无处不在的。具体特征阐述如下:
(一)不确定性
在一个到处充斥着数据的“人工智能时代”,人类社会正在从“原子世界”向“比特世界”演进,不断演绎着“人是生而平等的,却无往不在枷锁之中”的事情,人工智能赋予了人类很大的自由,人类实践着空间维度的自由,甚至开始追求时间维度的自由,但过于泛滥的大数据却给予了人类太多的选择,能力有限的人类变得如同遇到洪水猛兽般不知所措。这就是未来社会的不可预测性,“被动自由”问题变得日益突出。这主要由以下原因导致:
第一,大数据的“全体性”“混杂性”及“相关性”必然带来的是风险的不确定性。在小数据时代,人们受限于技术,只能选择分析随机样本;但在大数据时代,收集与分析全样本是现实可行的。大数据中的“大”非绝对意义的大,而是指全数据;在小数据时代,由于数据量少,人们执迷于数据的精确性,而在大数据时代,人们开始追求大而全的数据,这种混杂性确保了大量数据的真正利用,人类从此打开了一扇未涉世界的窗户;在小数据时代,人们苛求因果关系,但在大数据时代,人们只追求相关关系,知道“是什么”就足够了,没必要知道“为什么”。
第二,算法的不可预见性也直接导致了风险的不确定性。拥有强大算法能力的人工智能决策系统则不同,它能够在短时间精确计算所有可能性的基础上,选择机器认为的最佳方案。而人工智能决策系统并不受预置的价值观念、经验法则、道德法制等因素的制约,它们很有可能做出人类根本不可能考虑的实施方案。这就是算法带来的不可预见性。由此,尽管人类制造了人工智能,但我们却无法预见到人工智能最终的决策选择。随着深度学习技术的进步,人工智能行为的不可预见性问题更加凸显,而且程度不断加深。一个具有自主学习能力的人工智能系统,实践中大数据的喂养使其愈发进化,使得最细心的制造者都没有办法控制或预测指数级升级的人工智能的决策过程及决策结果,这就是一个黑箱。
第三,架构的封闭性更加剧了风险的不确定性。网络“性质”并非由上帝的旨意来决定,而仅仅是由它的架构设计来决定。网络的架构既可以是开放分享式的,也可以是封闭控制式的。最初的万维网是开放分享式的,是一种去中心化的、没有等级制度的架构,但这种架构存在致命缺陷,即缺乏安全性标准。于是,平台企业的商业逻辑和国家的安全逻辑共同导致了封闭性网络的产生。少数巨头控制了资源的流动,通过集中式基础服务深入不同领域,形成半封闭的互联网领地;政府部门使用分口和属地管理方法,使互联网治理变得碎裂化。由此,一个背离早期互联网的封闭式网络就此形成,“门槛很高”的人工智能军备竞赛使中心化趋势愈演愈烈,“强者恒强”。
(二)失控性
“自然存在度在世界流变体系中呈现为逐层递减的分布趋势”,“愈进化的存在物其存在度愈低……它可以显示某种相对活跃或较为主动的存在‘能力’,却不得不借助于日益精巧的求存能力来为日益衰落的‘自在’自负其责。”该递弱代偿原则也适用于人工智能时代的人类,一方面人们拥有了包括“数据权”在内的更多自由权利,具有更多认识世界和改造世界的主观能力;但另一方面,现代性风险使人们对大数据和算法的依赖性越来越高,人们的自然存在度日益下降,逐渐丧失了对世界和社会认知的绝大多数自主性。一些日常生活中的事物都可能在一夜之间就变成带来危险的“特洛伊木马”。人工智能愈发明显的强自主性以及人类对其的高度依赖性,最终演变为失控性。具体原因如下:
第一,强自主性带来了失控性问题。与人类早期科技不同,人工智能的本质特征是以行为自动化为基础的机器决策自主化。这种自主化有强弱之分。以自动驾驶为例,人类对于3级以上的具有自主性决策能力的人工智能系统的监管将是非常困难的。尤其当机器系统自带深度学习而进行指数级升级的情况下,人类失去本地化控制或全方位控制只是时间问题。虽然失控并不必然带来风险,但当人工智能目标与人类终极福祉背道而驰时,风险就不可避免出现了。由于人工智能只是一种基于大数据基础的最优算法,它不会进行价值判断,也不懂什么“善良风俗”,更不会坚守“道德底线”。比如人类为人工智能设定的目标是减少人类的痛苦,在不受任何人为干预的情况下,人工智能系统自主选择的极端方案很有可能是“尽快灭绝人类”。由此,失控的强人工智能很有可能会给人类带来生存性风险。
第二,人工智能研发的隐秘性和分散性加剧了失控性。与核能、转基因等传统风险源不同,人工智能的研发不需要建造大量的基础设施,不需要雇佣大量的员工,甚至不需要购置生产设备,只需一台电脑或一部智能手机即可。因此,大量初创科技公司或个人都从事于人工智能行业,他们甚至可以在全球的每一个角落随时随地进行研发。这种物理上的隐秘性和分散性使得监管机关很难确定是谁以及在何处制造潜在的威胁,社会风险由此不断集聚。
(三)全球化
与财富一样,前现代社会的风险分配是附着在阶级模式上,只不过是以颠倒的方式进行:财富在上层聚集,而风险在下层聚集。而在人工智能时代,虽然贫困依然是等级制的,但大数据和算法带来的风险却是民主的。“飞去来器效应”逐渐打破了阶级和民族国家的边界,人工智能风险在其范围内以及它所影响的那些人中间,表现为平等的影响。同时,风险的全球化伴随着信息革命而出现,食物链实际上把地球上所有的人连接在一起,而全球化趋势带来了不具体的普遍性的苦痛。人工智能研发的全球化趋势非常明显:软硬件生产的全球分散程度及交互程度远超以往任何科技;全球协助研发成为可能,项目参与者可以生活在不同国家,而且并无法律上的关系;数据的跨境流动将更为便利,而跨国公司因法律环境而进行的总部变更将更加频繁。这样一种全球化趋势给政府监管带来了前所未有的难度,也带来了“数据本地化”的要求。
由此,为了防范人工智能带来的诸多风险,在不阻碍创新的前提下重构法律治理体系显得尤为重要。从这个意义上说,我们理应观察科技风险治理对国家和社会、政府和市场的关系演变以及法律体系历史变迁的影响,这也是行政法学的重要任务。
二、人工智能风险的法律治理模式选择
“这是以往的哥白尼革命、达尔文革命及神经科学革命中不存在的,人类在宇宙中的特殊地位受到威胁,人类已不再是信息圈毋容置疑的主宰,机器开始替代我们执行越来越多的原本需要人的思想来解决的任务。”与蒸汽机、电脑等工具的辅助性功能不同,人工智能的强自主性可能会替代人类的作用,这种风险是现实的、巨大的且骤然的。
那么,人工智能的风险到底能不能被治理?“某只看不见的手正在建造一种与网络空间诞生时完全相反的架构,这只看不见的手,由政府和商务共同推动,正在构筑一种能够实现最佳控制并使高效规制成为可能的架构。”事实上,宪法和法律也是这样一种架构,它们不仅是一种文本,更是一种生活方式,规范着人工智能在虚拟空间的行为方式、权利义务分配,最终保护人类的道德底线和终极目标。从这个意义上说,重要的问题不是人工智能风险是否能被治理,而是如何构建整体性的法律治理体系的问题。
而“技术风险争论并不单单是一个个不相关联的技术或伦理上的不同意见,它关系到政府机构应当如何认定和理解技术风险并采取相应的措施”,关键问题是如何充分发挥法律和政府在风险评定及决策中的良好作用。为此,费雪在总结已有两种进路的基础上,提出了新思路:
(一)科学进路
该进路主张科学和专业知识是人工智能风险决策的主要依据。“技术问题的解决方案就是推动和促进科学决策或专家决策……据此,国家须要保证风险决策尽可能地客观,保证决策者是其专业领域的专家……科学需要被带入政治过程、带入规制过程、带入法庭,这样,技术风险才能得到恰当的理解。”公众对专业知识的依赖,不仅关系到如何从彼此孤立的事件的既定普遍性中获得安全性的问题,而且更关系到公众如何通过反思性运用专业知识来计算利害得失。在他们看来,只有当充分的科学证据能够证明人工智能技术并不会对人类的人身财产和国家的安全造成严重威胁,并且能够让社会成员普遍接受人工智能是一种安全有效的新技术时,决策者对人工智能风险的法律治理才具有了科学的逻辑前提。
(二)民主进路
该进路主张民主和伦理等价值作为人工智能风险决策的主要依据。“科学的‘客观性’实际上是给意识形态披上伪装斗篷,而且风险决策关系到共同体民众整体上意愿怎样生活。因此,科学只是一个有限的决策工具……国家应当采取更为民主的应对风险的进路。”该进路强调的是人工智能风险的社会可接受性,评价指标为“接受程度”和“充分保护程度”,伦理价值、自治观念及诚信和公序良俗原则的重构显得尤为重要。国家应当以立法的形式推出风险评估及决策过程中的公众参与制度,保证各种不同的价值判断得到充分的阐述和尊重。
(三)行政宪制主义
无论是科学进路,还是民主进路,法律在人工智能风险治理中的作用都被描述成简单工具性的、无关紧要的或者会起妨碍作用的。在费雪看来,法律的作用是非常明显的,它并不是工具性的或不相干的,它不仅精确界定和打造了“科学”“民主”“伦理价值”及“专家知识”等概念及社会影响力,而且还创造了人工智能风险决策的机构情境,控制决策者行为的合法性和合理性,规范被规制者及参与者的行为规则;法律也不会起到妨碍的作用,法律发出的不同声音让人工智能的风险决策者置身于充满竞争性规则的法律网络之中,法律的妥协性有利于人工智能风险的社会可接受性的实现。由此,行政宪制主义抓住了人工智能风险决策情境中法律的规范性质,也抓住了因为对有原则的宪制政府存在不同认识而造成的法律的变动常性。
事实上,人工智能风险治理的主要目标如下:保护个人数据隐私、安全及相关权益;抵御可能的集体风险,维护国家安全、公共安全及社会稳定;在个人数据权益保护和社会自主创新之间实现平衡。为了实现上述目标,我们需要重构一个风险治理体系,而核心问题是政府和法律的作用。该体系的特征如下:
(一)从封闭到开放
由于网络的非开放性架构导致了人工智能风险治理结构的封闭性,具体表现为“行政主体—行政相对人”的固定规制结构,这种封闭性治理结构极大地增加公众的存在性焦虑及风险的社会可接受性。在抽象体系的交汇口,连接公众与信任关系的当面承诺,通常表现出明白无误的可信任性与诚实性,并伴随着一种“习以为常”或“镇定自若”的态度。这就需要开放的经济、开放的社会和开放的政府,开放是人类社会之所以能够进步最深厚、最强大的基础。在人工智能时代,建立政府与公众之间的这种抽象性信任机制的最好办法,是实现从风险规制到风险治理的转变,是重构一种以“开放和分享”为特征的法律治理结构。这种结构以风险治理过程中的多元主体参与和风险评估、决策制度的过程复合性为基本特征,以政府及其他主体所处的制度环境和多元互动为焦点,以协商式行政方式建构风险治理的网络和关系契约。
(二)从单维度到多维度
面对着以复杂、不确定性和失控性为特征的人工智能风险,我们需要一种整体性的风险治理体系,即应当从中央与地方、政府与市场、立法与行政、国家与社会四个面向,以开放和多维度的方式来重构治理结构,意在实现政府、市场、社会及公众之间的一个新型社会,一个更开放的社会,一个权力分享的社会,一个网状的社会。具体来说,对于人工智能的风险治理,我们要实现从单维度到多维度的转变,我们不仅需要政府的规制,也需要市场的自发秩序;我们不仅需要全国人大的立法规制,也需要国务院的行政规制;我们不仅需要中央政府高屋建瓴式的领导性规制,也需要地方政府对症下药式的自主性规制;我们不仅需要国家的外在强制性规制,也需要包括平台公司在内的社会自我规制。
(三)从单向授权到双向运动
传统的风险治理结构的特征往往是政府向市场、行政向立法、中央向地方、国家向社会的单向权力运动或放权,但对于人工智能的治理,我们需要一种双向的权力(利)运动模式,即承认上述单向运动的合理性和有效性的同时,还需要一种反向的权力(利)运动形式,即市场向政府、立法向行政、地方向中央、社会向国家的鲟鱼回归式的权力(权利)运行,这一点从某种意义上更为重要。
由此,现有的以追求秩序行政为目标,以法律保留原则、法律安定性原则和法律明确性原则为基石的封闭式行政法学理论显然不足以抑制人工智能带来的风险。我们无法再以绝对性、确定性、统一性、可计算性为前提的法学理论来构建前人工智能时代的法律秩序,我们需要一种以“开放与分享”为基本特征的整体性四维双向风险治理体系。
三、四重双向风险治理体系第一维:政府与市场
根据政府参与的深度和广度,对于人工智能风险的治理大致可以分为私法模式和公法模式,私法模式以市场为基石,公法模式则以政府为基石。而政府与市场的关系则是四重双向风险治理体系的第一维度。
(一)正向运动
正向运动的产生原因是什么呢?由于包括技术和效率等国家能力的欠缺,以及基于经济便利和政治因素的考量,政府在很多情况下会考虑通过企业力量和市场机制来实现人工智能行业的发展以及对其风险的防范。但“未来社会的生产部门主要由少数的从业者、机器人以及人工智能共同完成,而愤怒的失业者则构成了社会中的不安定因素”。从实践来看,人工智能发展的根本推动力是商业企业的市场逻辑,其本质是平台公司以最低成本利用社会中的生产资料和劳动力,获得高额剩余价值。刚开始是依靠疯狂抓取、交易和其他不正当竞争方式获得大量数据;后来随着《国家安全法》和最高人民法院、最高人民检察院《关于侵犯公民个人信息刑事案件解释》的出台,获取数据的社会成本和风险不断增长,如微信等平台公司开始努力把既有用户改造成免费的内容生产者,于是用户的数据也就成为了平台企业的资本。等到发展到一定规模,这些新型生产方式开始寻求国家和法律认可的“合法性”。在这过程中,我们看到了人工智能的“非法兴起”过程,也看到了政府在“大众创业、万众创新”口号下对市场不断放权而形成了“正向运动”过程中的“野蛮生长”问题。而在后“野蛮生长”阶段,政府如何通过法律上确认人工智能这类新生产方式的合法性以及如何对相关利益进行合理配置,这将是非常关键的问题。
在政府放任的“野蛮生长”阶段,“非法兴起”使得市场和平台公司等商业力量迅速成为人工智能发展的主要推动机制。以此为契机,我国在自动驾驶、语音及人脸识别、智能投顾、机器人等人工智能领域都取得了长足进步;以深度学习为代表的机器技术开始进入政府的智慧城市建设;206工程强势进入上海法院,人工智能开始成为司法机关重要的辅助决策系统,甚至被认为是法院的未来图景。以“政府数据开放”为例,政府与企业力量、市场机制实现深度融合的方式如下:
第一,政府和企业的全方位战略合作。如上海市政府与腾讯公司签订了战略合作框架协议,共建智慧城市。双方通过云计算和大数据能力,推动信息化服务产业链条的完形,以及在社会信用管理等领域进行大数据技术的探索。第二,政府机关委托企业经营的数据大平台。如阿里健康受国家食药总局委托作为药品电子监管网技术运营商,提供技术及维护服务,但网站的所有权归国家食药总局所有,目前经营权移交回国家食药总局。第三,政府和企业利用共享大数据的合作治理。如最高人民法院首次联手芝麻信用共享被执行人信息,开创了第三方商业征信机构首次通过最高人民法院官方授权,通过互联网联合信用惩戒的先河,主要方式是限制失信被执行人购买机票、租车、贷款。第四,政府和企业合作运营综合性的数据大平台。如云上贵州系统平台是全国首个省级政府和企业数据统筹存储、共享开放和开发利用的云服务平台。带动企业、社会数据集聚及开发应用,提升政府治理能力现代化水平,推动产业发展,服务改善民生。第五,企业提供技术平台,由政府自主运行数据平台。如备受争议的全国教育技术服务平台(IME平台)由天天艾米公司免费帮助教育部搭建,具体负责运营的是教育部直属事业单位教育信息管理中心。
(二)反向运动
作为人工智能风险治理维度之一的政府和市场关系,往往会经历双向运动。“现代社会的原动力是由一双重倾向支配着:一方面是市场不断的扩张,另一方面是这个倾向遭到一个相反的倾向——把市场之扩张局限在一个特定的方向——的对抗。这一对抗自律性市场危害性的社会保护倾向非常重要。”具体来说,作为正向运动的市场力量盲目扩张带来的外部性问题是市场机制本身所无法解决的,这就需要一场旨在保护人、自然和社会组织的反向运动。
那么,这种反向运动的产生原因是什么呢?自生自发的市场秩序从来都是乌托邦,人工智能带来的巨大风险自然也不能由市场机制本身所能化解,而市场机制自身所带来的外部性却日益显现,具体表现在:
第一,隐私权。身处后隐私时代的我们,人人都变成了“透明人”,并深陷于一个巨大的“黑箱社会”之中。“社会个体不知道自己有多少信息被记录了,这些信息会传播到什么地方,也不知道哪些人会使用它,使用这些信息的目的何在,更无从知道这些信息的泄露会产生怎样的后果,依据这些信息所作的判断是否准确,是否存在偏见或破坏性?”事实上,微信决定了我们是谁,淘宝和京东决定了我们想要什么,携程和滴滴决定了我们去哪儿,而百度决定了我们怎么想,微博则决定了我们心中的“她”。我们在不经意间把自己的隐私权利和自由转交给了一个缺乏伦理道德标准的冷血人工智能之网,我们深陷其中,再也无力挣脱。从隐私需求的整体性看:隐私保护已成为互联网用户和非互联网用户的共同关切。由于大数据的爆炸性增长和云计算能力的指数级进步,我们的风险不再仅仅局限于隐私的泄露,还在于我们成为了“不会被忘记的人”,更为可怕的是,我们还成为了“被决定未来的人”。
就人类而言,时间是最好的疗伤剂,遗忘是常态,记忆才是例外。但随着人工智能时代的到来,这种平衡被打破了。往事像炫目的刺青一样永远刻在我们的数字皮肤上,洗也洗不掉!随着海量数据存在越来越廉价的云存储器上,平台企业对数据的获取成本远远比选择性删除某些需要被遗忘数据的时间成本要低得多。于是,“在信息权力与时间的交会处,永远的记忆创造了空间和实践圆形监狱的幽灵。完整的数字化记忆摧毁了历史,损害了我们的判断和我们及时行动的能力”。
隐私的传统保护模式主要是一种私法机制,采取的是目前仍旧在世界广泛流行的严格的“告知许可-例外”权利模式。虽然隐私保护的对象大致经历了从住宅到人、到信息再到数据的转变,但不变的是在这个过程中市场始终起到了基础性的配置作用。但在人工智能时代,这种私法保护模式将面临着越来越多的局限性:其一,不管是告知与许可、模糊化还是匿名化,这三大传统的隐私保护策略都将失效。如作为“隐私例外”法律基础的“匿名化”将由于撞库和大数据等再识别技术出现而难以奏效。美国在线隐私再识别案充分证明了这一点,撞库技术使用户代码与“如何杀死你的妻子”“死人的照片”和“撞车照片”等联系在一起。其二,人工智能的预测能力的确可以为我们打造一个更安全、更高效的社会,但是“未来一切被预测”却否定我们之所以为人的重要组成部分——自由选择的能力和行为责任自负。以上局限性亟待政府主导的反向运动通过保护性干预来突破,毕竟“规范和监督个人数据处理行为,保护个人隐私不受侵犯是每个国家的基本义务”。具体如下:
1.建议政府重构一种能够平衡公共利益和个人利益之间关系的隐私权保护模式,既保护公民的隐私权益,也要通过数据再利用实现巨大的经济价值和社会效应。具体包括:一是,该模式应更注重数据使用者的企业、公众为其行为承担法律责任,而不是将重心放在收集数据之初取得隐私权者的同意上。二是,该模式提倡“差别隐私”,即政府和企业应当通过对数据进行模糊化处理,使确定个人与特定数据的因果关系变得困难,公民的隐私自然得到保护。
2.建议政府发动一场“互联网遗忘”运动。提倡数字化节制、保护信息隐私权、建设数字隐私权基础设施、调整人类的现有认知、打造良性的信息生态以及完全语境化等对策。具体而言,人类走出“数字记忆”的最好方法就是删除,恢复人们的记忆能力。对政府而言,就是确定数据时效性问题,即政府通过行政立法的方式规定不同类型的数据必须删除的最长时间,而数据的存续时间长短取决于数据的经济价值、社会效应及法律风险等;对于公民而言,则是被遗忘权的问题,“不是通过委以技术手段将数字化记忆的问题推离我们的意识,恰恰相反,让人们察觉到遗忘的价值和重要性”,这就需要政府通过立法方式正式赋予公民“被遗忘权”。
第二,伦理问题。不管我们是否承认,“一切被记录,一切被监管”的人工智能时代已经来临,数据开放带来的伦理问题若隐若现,具体表现在:
1.大数据和高级算法可能会使所有人丧失了未来的自由选择权。当医疗数据集比医生更了解病人身体状况、医疗病例和医疗方法时,绝大多数病人的选择很可能是抛弃医生,而选择相信精确算法基础上的人工智能;当基于高级算法的数据集能够准确预测员工未来几年的能力值、忠诚度、经济贡献值以及生育计划的话,公司会选择据此提前解雇某些可能成为负资产的员工;当基于高级算法的健康数据集能够预测某人未来的健康状况时,那么没有保险公司愿意接受他的人寿保险申请;更为恐怖的是,当基于算法的信用数据集可以预测某人未来犯罪的可能性时,公安部门可能会以“预防犯罪”为名提前干预他的自由权利。大数据的高速流动和再利用也许可以“打造一个更安全、更高效的社会,但是却否定了我们之所以为人的重要组成部分——自由选择的能力和行为责任自负。大数据成为了集体选择的工具,但也放弃了我们的自由意志”。而“算法共谋承担责任的主体也存在着较大的争议,使人类和机器的责任模糊化”。
2.大数据和高级算法可能会带来数据歧视问题。数据表面上看是中立的,似乎并不涉及价值判断,但在数据商业化过程中,一旦冷冰冰的政府数据加上高深理性的算法,数据歧视的产生可能就不可避免了。当健康大数据可以基本准确预测某位孕妇可能怀的是女孩,该孕妇可能会据此选择堕胎,这是典型的性别歧视;当司法大数据推测黑人的犯罪率较高或阿拉伯人成为恐怖分子的可能性较高,那么监管部门可能会对他们重点监管,甚至提前预防犯罪,而有些公司也可能会据此拒绝雇佣他们,这就是典型的种族歧视和职业歧视;当电商平台根据消费大数据,用高级算法作一个精确的推荐系统,如收入较低的顾客浏览此平台时,非常多的打折信息会不断跳出来骚扰,又如平台给“经常打好评”和“很少退货者”寄送假货,而某旅游网站的“同房不同价”,这是典型的消费歧视。这就是人工智能时代“开放的大数据”加上“复杂却差异化的算法”带来的歧视,这是商业领域隐匿的“穷人与狗不得入内”。
以上市场外部性亟待政府的反向运动通过保护性干预来解决。具体包括:
1.建议政府通过立法方式重塑“公正”“合法推定原则”及“无罪推定原则”等概念。在充斥着“过去决定未来”及“数据预测未来”的人工智能社会,政府需要重新定义公正的概念,“个人动因的保护”应成为公正的新内容。人们应该只为他们的行为负责,而不能为未来的趋势或倾向负责,应当坚决杜绝政府或企业依据大数据预测的行为而非真实的行为对人们进行评级或奖惩。只有这样,自然人在法律上才是作为真正的“人”来对待,他们有行为选择自由和通过自主行为被评判的人。这是人工智能时代的“合法推定原则”及“无罪推定原则”的新含义。
2.建议政府通过立法的方式积极推动企业算法的公开、公平和公正等特别保护措施。对于政府行为的合法性和合理性,法律设置了非常详尽的实体法和程序法的规定。但对于同样涉及我们每个人的权利和自由(甚至我们的未来)等重要利益的企业决策和评价,法律却没有任何限制性规定,这在法理上是说不通的。因为商业算法会直接影响到我们每个人的利益,所以企业不仅要遵循公开原则,向全社会无条件公布算法的具体内容;企业还要遵循正当程序原则,不能既作算法的评分裁判者又作算法的事实参与者;企业还要遵循可辩驳原则,企业在对用户作出不利的评价之前,必须给用户辩驳和说明理由的机会。
总之,市场向政府的反向运动在法律上主要体现为公法模式。这种风险治理模式是通过政府有意识的保护性立法和政府干预手段而实现。它强调的是政府的强力介入,通过详尽规则的出台,政府的人为设计甚至是政府的制度性导向来实现人工智能风险的治理。这种模式中起主要作用的公法机制,往往是显性的。以欧盟为例,对于人工智能涉及的个人隐私等权利保护,成员国并非依赖私法权利体系及个人司法救济来实现,而主要通过公法机制来实现。“从《数据保护指令》到《统一数据保护条例》,欧盟一直致力于建立‘行业行为准则+法律强制性规范’的双重规范体系和‘数据控制者自律+政府数据监管机构的监督管理’的双重管理体系,尤其是新的条例要求欧盟各成员国均要建立独立的数据监管机构,建立数据主体向监管机构投诉、受理及处理的一整套完备的行政救济制度框架。”
四、四重双向风险治理系统第二维:立法与行政
人工智能的风险治理应当以公民基本权利的保护为根本出发点,基于人工智能风险预防特征,考察不同国家权力在手段与功能上的配置,实现治理责任的转移和优化。行政、立法及司法三项主要国家权力如何在人工智能风险的法律治理中实现合法合理的分工,这也是一个非常关键的问题。
(一)正向运动
在人工智能风险治理的职能分工中,行政机关因其权力的独特性承担了越来越多的责任。由此,立法向行政放权的正向运动开始启动,具体有三种方式:通过《立法法》及其他法律的明文授权,授予行政机关广泛的行政立法权;通过法律文本中的不确定概念赋予行政机关更多的自由裁量权;通过设置“风险预防原则”赋予行政机关更多的事实上的风险决策权。而这个正向运动主要是由行政的以下特性决定:
第一,主动性及调动资源的能力。“行政的作用在于形成社会生活、实现国家目的,特别是在福利国家或社会国家中,国家的任务更为庞杂而繁重,行政往往必须积极介入社会、经济、文化、教育、交通等各种关系人民生活的领域,成为一只处处看得见的手,如此方能满足人民和社会的需要。”相比立法、司法,行政是一种积极主动的国家作用,这种积极主动性也随之带来了强大的调动国家、社会资源的能力,这对于人工智能风险的治理至关重要。
人工智能风险标准的制定、评估及反馈需要查阅和收集大量相关的风险信息。这类相关信息往往涉及人工智能风险的法律性质、影响的范围以及政府治理的法律后果,甚至可能直接关系到人工智能项目的生与死。另外,人工智能风险标准制定、评估及反馈不仅需要决策者与相关利益者之间进行大量的商谈,还需要上下级决策者之间的日常式沟通。根据人工智能风险的性质不同,这种交流和对话可以包括收集风险信息、咨询专家意见、各种形式的公众参与以及利益集团的讨价还价。对于这样全天候待机式的工作,立法机关既没有时间也没有迅速集中大量资源的能力,显然无法胜任。
第二,专业性。在时间和空间分离的巨大跨距之中,脱域机制通过将社会关系从它们所处的特色的地域“情境”中提取出来,使得这种时空延伸成为可能。而专家系统正是这样一种能够预防人工智能风险的抽象式脱域机制。对专家系统的依赖和对专家知识的需求,正是行政替代立法及司法发挥某些国家作用的传统理由之一。由于行政机关往往只承担一项具体的任务,其工作人员也可以只聚焦于特定行业的相关事项,他们很容易成为某一领域的专家。同时,在日常工作中他们还需要跟各种具有不同特定技能、经验或知识背景的专业人士打交道,具有短时间内组织和聚集科学共同体和职业共同体中顶尖专家的能力。这种专家化和专业化的优势对于人工智能风险的治理至关重要,治理过程所需要的专家系统是一个各行业各领域专家知识在人工智能风险的评估和标准制定过程中的综合预测和运用的过程。
第三,灵活性。与立法机关、司法机关相比,行政机关在机构组织形式、行政负责人的挑选与任期、行使职权的方式等各方面具有更大的自由裁量空间和更多灵活性。事实上,行政机关依据《立法法》拥有了广泛的立法性权力,依据《行政复议法》拥有了处理法律纠纷的司法性权力,而且还能发挥其实施法律的传统国家作用。这种“三位一体”的行政权所体现的灵活性对人工智能的风险治理意义重大。风险标准制定中的核心问题是风险的可接受性,这不仅需要考虑特定的科学评估及客观事实,而且也要关注不同社会阶层的社会利益和政治关怀。事实上,立法机关虽然是最民主的,但其不具备处置具体风险的专家系统、机构能力和时间;同样法院也不具备专家系统,不具备可用来收集风险信息和商谈的手段,更缺乏主动对特定风险的持续监管与及时反应的能力。由此,人工智能风险标准的制定过程中所涉及冲突的利益考量及具体的政治平衡只能由兼具主动性、集中调动资源的能力、专业性及灵活性的行政机关来完成。
(二)反向运动
由于行政缺乏民主正当性,“行政立法”“行政司法”及广泛的“行政自由裁量权”存在合宪性上的先天性缺陷,行政这个过度膨胀的当代宪制国家“尴尬传家宝”面临着“鸠占鹊巢”的嫌疑,这样一种强大的利维坦式国家作用令人感到不安且充满了法律争议。于是,一场保护性的反向运动应运而生,核心问题是如何控制人工智能风险治理中的行政自由裁量权,而这正是法律的主要功能。这种法律的作用本质上是一种行政宪制主义的形式,重点是如何把治理人工智能风险的问题融入公共行政的合法性、合理性及有效性的法律争论之中。为此,费雪提出两个不同的行政宪制主义范式,这些范式不但解释了立法与行政之间的宪法关系,而且也描述了法律作用与风险评估、决策以及民主、科学之间的相互依赖关系。
第一,理性—工具范式。该范式下行政的人工智能风险评估及决策行为,可看作是对立法授权所完成的“传送带”动作,包括确认特定的技术风险,评估可能采取的规制手段的法律后果及用“利益代表制”确认社会的价值偏好。该范式解决了风险治理中行政的合法性,评价标准是法律是否得到完全的贯彻实施。但立法机关并没有能力对不确定的人工智能风险的治理制定出具体明确的指令,这显然是不可能完成的任务。事实上,行政行为合法性已不再仅仅聚焦于“防止行政机关对私人自治领域的未授权的侵入,而是确保所有受影响利益在行政机关行使其被授予的立法权力过程中得到公平的代表”,事实上的广泛行政自由裁量权在人工智能时代也不可避免。
第二,商谈—建构范式。该范式主张授予行政机关行使实质性、强自由的裁量权,立法并非是一套精确的命令,而只是为行政裁量权设定一般性原则和考虑的相关因素。行政不再只是立法的代理人,而是实施其自由意志的机构。该范式为“社会可接受性”这一人工智能风险治理的关键点提供了可靠的法律机制,而商谈是行政机关在风险标准制定过程中用于厘清相关问题、确定专家知识及作出最终决策的绝佳工具。这种基于商谈基础上的风险治理体系的成功建构并不是商谈的民主性质,而是一种集体共同解决问题的优先手段,这是一种公共理性。
事实上,从“行政宪制主义”重新描述人工智能的风险治理,也许并不能直接产生具体的技术解决方案,但却打开了一扇理论建构之窗,这有利于我们重新定位法律和政府在人工智能风险决策中的重要作用,并促使行政法学者开始试图重构人工智能风险的整体法律治理系统。
五、四重双向风险治理系统第三维:中央与地方
上文提到了市场与政府、立法与行政之间的双向运动,而纵向的央地关系也是难以回避的维度。
(一)正向运动
地方政府一方面基于“GDP锦标赛”的需求,积极推动本地经济试验与人工智能产业发展深度融合,人工智能产业的实践推手主要是地方政府而非中央政府;另一方面,对于随之而来的人工智能风险,地方政府也是身先士卒地积极探索法律治理模式,并不断积累经验。我国是一个民主集中制原则下的单一制国家,其特征是中央的领导权和地方的自主权有机结合。而在人工智能的产业发展和风险治理实践中,我国出现了一个明显的中央向地方不断授权以及地方自主权不断扩大的正向运动,这种正向运动的产生原因如下:
第一,单一制与有效治理的融合。按照宪法的规定,我国是单一制国家,体现为中央在财政、人事、自然资源等方面对地方的最高领导权,而有效治理能力的增强是以地方自主权的扩大为基础,法律上表现为中央向地方的自上而下的放权和授权。周雪光把这种中国国家治理逻辑归纳为“一统体制和有效治理的关系”。同样,面对人工智能风险的不确定性,尤其在“地广人多”和“经济发展不均衡”的社会情境下,我国实现对人工智能风险的有效治理的良方之一是中央向地方不断放权和授权。在这过程中,中央与各省之间存在一种显性或隐性的谈判,各省得到是制度化的或特定的某种利益,而作为回报,各省保证将代表中央以特定的方式做出行动。于是,单一制与有效性在人工智能风险治理领域实现了融合。
第二,新时代的特色法治经验。重构人工智能风险的治理体系大致需要以下几步:第一步,由地方政府就风险治理先行先试,积累有效治理的初步经验;第二步,由地方人大基于已有的“地方性经验”制定“地方性立法”,然后进一步试错并积累经验;第三步,由国务院在充分总结地方经验教训的基础上制定行政法规;第四步,如有必要,再考虑上升为法律,适用于全国。这种新时代的特色法治经验的形成主要有两个依据:其一,我国经济文化情境差异巨大。我国疆域广阔,人口众多,多民族多文化,经济发展极度不平衡,东部、西部以及南方、北方的地理气候资源变化多端,这决定了我国需要“差异化”的地方性立法及行政;其二,“民主集中制”原则为新时代特色法治经验提供了坚实的宪法基础。
由此看来,对于人工智能的风险治理,地方行使自主权是法律的常态,而中央行使领导权则是法律的例外。只有当地方的行为可能改变中央和地方的政治平衡时,中央领导权的介入才有必要。而地方的主要工作如下:
第一,出台人工智能的地方规划及行动方案。据不完全统计,截至2018年3月,全国31省、自治区、直辖市中,包括北京、上海、广东及浙江等15个省市已经发布了人工智能规划,其中的12个省市还进一步提出了具体的产业目标,目前还有江苏、山东、河南、陕西等省市正在编写人工智能规划。另外,其中的27个省市在“互联网+”规划中提及人工智能、22个省市在战略新兴产业规划中设置了“人工智能专项”、19个省市在大数据规划中提及人工智能、9个省市在科技创新规划中设置了“人工智能章节”。这些规划的核心内容是:发挥地方政府在培育人工智能产业中环境营造、政策支持、规划引导等方面的重要作用;尝试建立人工智能风险治理的组织机制,拟建立由分管市领导牵头,科委、产业园等参加的工作协调机制。上海、广东以及浙江等省市的规划也有类似的规定。
第二,制定实验性政策及地方立法。地方政府应当加强人工智能相关法规、伦理和社会问题研究,推动建立保障人工智能发展的法规和伦理道德框架。根据新时代的特色法治经验,在人工智能产业发达的城市,如深圳或杭州就风险治理进行试点,积累有效治理的初步经验;由地方人大基于已有“地方性经验”制定“地方性立法”,然后进一步试错,为国务院制定行政法规和未来的全国人大立法提供实践基础和理论支撑。
第三,试验性设立独立的人工智能风险及安全监管机构。地方立法既要保证该监管机构组成机构及成员的独立性,也要确保监管机构行使职权时程序上的透明度。安全监管委员会的主要成员可以从所在地公安局及市场监管局选任,该机构应当具有如下主要职责:人工智能风险的评估及风险标准的制定、风险决策过程正式和非正式的公众参与制度的出台、对人工智能平台企业行使行政调查权及限期整改等矫正性权力、向上级机关或立法机关提出建议的权力以及定期发布人工智能风险预警和治理的年度报告等。
由此,地方政府主导的人工智能风险治理试验从宣示开明的政治姿态演变为动态的经济实践,其内在的政治与法律意涵开始不断丰富。
(二)反向运动
人工智能的风险治理应当是一种制度化体系,这种顶层制度设计只能由中央政府来构建和提供,其目的在于保护自然人的数据权益,维护国家安全、公共安全和社会稳定,但却不能因噎废食,阻碍数据合法的自由流通并完全禁止人工智能的研发。我们建议,全国人大在充分吸收地方的经验和教训的基础上制定《人工智能发展法》,具体制度如下:
第一,设立人工智能系统的登记认证审查制度。立法的重点是围绕如何在不阻碍创新的前提下最大限度控制和防范人工智能的潜在风险,因此,除了自动驾驶系统这类可能对自然人的人身财产权造成巨大威胁以及智能武器这类可能威胁国家安全、公共安全的人工智能系统之外,立法并不能也没有必要对所有的人工智能系统设立严格的事前行政许可制度。
笔者建议,设立适用于所有人工智能系统的登记认证审查制度,即所有的人工智能系统都应当按照法律的要求去监管部门登记备案,但绝大多数并不需要事先取得监管机构的批准性许可文书。同时,实现认证程序与侵权责任体系深度结合。企业可以自愿申请监管部门或授权的专业机构的认证程序,经过权威认证的人工智能系统的设计者、生产者或销售者仅需承担有限侵权责任,而没有经过认证的人工智能系统将会承担严格的连带责任。
笔者还建议,设立抽查式事后的安全审查制度,监管机构审查的关键词是“安全”,即查看人工智能系统“是否落实网络安全等级保护制度,按照国家标准规范要求,采取管理和技术措施,保护网络、信息系统、数据资源安全”,立法应当授予监管部门“安全一票否决”的权力,即涉及“安全”问题,监管部门有权强制启动严格的事先行政许可制度,即人工智能系统获得行政许可需要经过多重多阶段的严格安全测试,在没有获得许可前不能上市销售。
第二,设立人工智能专员制度。当实施政府数据开放和利用的机构是政府部门时,或者当其核心业务是用算法处理大量数据且需要进行定期的、系统化的大规模监控时,或者当其核心业务是用算法去处理就业、社会保险与社会保障法等领域以及与犯罪和违法行为有关的大规模特殊数据时,立法应当明确要求数据控制者和处理者指定一名人工智能专员。人工智能专员在履职过程中,应当从处理行为的性质、范围、环境以及目的的角度合理充分关注算法和数据所带来的不确定风险,一旦发现问题需代表雇主及时向监管机构报告;应当就数据合规、算法公开以及隐私保护等内容进行内部的员工培训;与监管机构就大数据及算法等内容保持沟通及协作,共同抵御风险。
第三,建设国家统一的大数据平台。国家统一大数据平台需要有足够的立法支撑和可操作的实施方案,同时应当通过立法设立首席信息官、首席技术官及首席数据官等专业机构。这样的国家大数据平台只能由中央政府来建构,并且需要一个较长时间的经验积累和试错。从地方分散实践到中央统一立法的反向运动是可取的,我国地方数据平台从数据量、时效性、数据集可视化、互动分享等方面与美国存在巨大的差距,其中一个重要原因是各自为政下形成的“低法治”数据割据。由此,一个旨在全面提升数据的有用性和易用性以及公众数据利用效果的全国性数据开放平台的建设必须提上全国人大的议事日程,应当将中国最为重要的政府数据统一集中到一个网站,为全国所有公众无差别地提供一站式的、内容丰富的、便于再利用的数据群,而这个工作只能由《人工智能发展法》来完成。
六、四重双向风险治理系统第四维:政府与社会
对于人工智能风险的破坏力和临界点,人们也许还有不同的见解,但这种科技风险的威胁毫无疑问是巨大的和不确定的。而国家和社会的双向运动是我们重构风险治理体系必须要考虑的一个维度。
(一)正向运动
当前中国正处于一个寻求新的合法性基础的过程中,逐步走向建立法治国家,而国家治理的主线也正从国家权力之间关系向国家与民众之间关系进行转型。事实上,以算法和大数据为基础的人工智能在国家和社会之间进行赋权和改造:其一,大数据流动和利用对国家和社会都进行了赋权。国家通过大数据的利用提升治理质量和效率,而转型后的国家治理模式反哺社会,使所有社会成员受益。其二,大数据流动和利用产生了“均权效应”,它强调的是非歧视性和公益性。由此,人工智能重塑了一种国家和社会之间的递归关系。
在这种背景下,人工智能的风险治理也正在经历着国家向社会放权和扩权的正向运动,具体表现为行政机关与平台企业的合作治理。根据弗里曼的研究,人工智能风险合作治理的规范模型应当具有如下特征:第一,以解决问题为导向。因国家向社会的正向运动而形成的合作治理是为了重构人工智能风险的法律治理体系,解决的是单纯政府规制的无效、无能、不民主以及程序僵化、执行难等难题,而不仅仅是实现传统的“控制行政裁量权”。第二,利害相关人的全程参与。这不仅能解决人工智能风险政府治理的民主缺失性,而且也能通过风险评估和风险决策中的公众参与,更好地解决人工智能风险治理体系的“社会可接受性”议题。第三,临时性解决方案。人工智能风险的高度不确定性决定了风险治理体系的高弹性以及相应解决方案的临时性,这要求各个治理主体在持续不断的风险评估和风险监测中作出反思性的风险决策及非确定性的规则。第四,超越公私之分的责任性。因国家向社会的正向运动而形成的合作治理,实质上使得人工智能平台企业承担了很多“公法上的职责”,在法律上表现为平台企业对用户的“自我治理”,由此基于公私混合的“私行政法”的概念得以确立。第五,灵活的行政机关。在人工智能风险的合作治理过程中,行政机关既是自我治理标准的制定者和监督者,也是风险评估和风险决策中公众参与的召集者和协调者,还是平台企业自我治理失败后的国家治理重启者和法律后果承担者。
(二)反向运动
由于人工智能平台企业的自我治理领域往往没有清晰的法律边界,而基于大数据的算法产品却容易波及社会中的每一个人,这种巨大影响力必将最终损害到国家能力;受到人工智能平台企业自我治理影响的利害关系人范围之广、数量之大,是传统社会所难以见到的,因而很难设计一种让所有利害关系人参与到人工智能风险评估和风险决策中来的法律机制。在“大众创业、万众创新”时代,政府机关有意无意地疏忽于“野蛮生长”阶段的监管职责,使得人工智能平台在短时间实现“非法兴起”,其后果是威胁公共安全和社会稳定的法律风险短时间内集中爆发。在此背景下,国家必须改变“强社会、弱国家”状况,启动一场从社会向国家集权的“反向运动”,具体理由如下:
第一,数据独裁问题。大数据的流动和利用带来的是经济上的繁荣和政治上的开明,但以“经济利益最大化”为唯一目标的市场精英希望对技术官僚实现“俘获”,官商同流合污带来的“数据独裁”容易形成。第二,数据垄断问题。一旦政府与企业合作治理政府数据开放平台,那么作为“网络基础设施”的政府大数据很容易集中到少数巨头公司手中。这种基于政商关系的垄断将利用数据市场的绝对支配地位,将对市场竞争及对用户合法权利保护起到消极影响。第三,国家能力问题。自由市场、充满活力的市民社会、自发的群众智慧,都是良好民主制的重要组件,但不能替代强大且等级分明的政府。福山进一步认为,成功的现代自由民主制应当把国家建构、法治和负责任政府这三种制度结合在稳定的平衡之中。很显然,国家建构能力是现代化国家的最基础的因素,法治、权力制衡和问责制都应当建立在国家建构的基础之上。在人工智能时代,国家数据能力则是国家建构能力的重要组成部分,它具体表现为数据主权,即国家对其管辖范围内产生的所有数据的收集、存储、利用和处置具有最高的决定权以及国家在数据跨境流动中所具有的独立自主权。事实上,政府对人工智能的风险治理承担着双重任务:一方面,由于技术能力欠缺,政府不得不倚重平台企业等社会力量,并通过实施包容性政策来全面推动人工智能的发展;另一方面,放任平台企业的自我治理必然带来的是难以承受之重的巨大风险。由此,国家必然选择对人工智能平台企业进行控制和监管,而国家必须着力避免出现平台企业的数据技术能力替代国家的认证能力等窘迫状况。
代结语:风险治理与行政法的转型
从“四重双向整体法律治理系统”重新描述人工智能的风险治理,也许并不能即刻产生具体的法律解决方案,但却凸显科技和法律关系问题的棘手性。这种思路无疑给行政法学者打开了一扇窗,开始尝试从“风险治理”和“行政宪制主义”两个角度去重新定位法律和政府在人工智能的风险评估和风险决策中的重要作用,这反过来对传统行政法本身也带来了巨大的挑战,“在当代社会,如何防范政治、经济、社会等方面的潜在危险,有效应对危机,为公民提供安全的生活条件,成为国家的核心任务,行政的任务也从给付行政向风险行政转变”,从“秩序行政”到“给付行政”再到“风险行政”,行政法的转型正当其时!
“风险行政法”需要一种以“开放与分享”为特征的整体法律框架,实现从行政规制法到行政治理法的转型。面对着以复杂、多元和碎片化为特征的人工智能时代,我们需要从政府与市场、立法与行政、中央与地方、国家与社会等面向来重构国家风险治理体系,意在实现政府、市场、社会及公众之间的一个新型智能社会。
“风险行政法”需要一种以“解决实际问题”为导向的“领域法”,其核心问题不再仅仅是传统的“行政裁量权的控制”。在风险社会,我们需要直面解决政府规制的无效、无能、不民主以及程序僵化、执行难等现实难题。我们不应该再把行政法理解为“与世隔绝的”“自给自足的”的行政主体与行政相对人之间的自生体系,行政法事实上深度嵌入社会关系之中,与其他部门法及国家、市场及社会之间存在一种共生的、可塑的关系。
“风险行政法”需要一种直面“不确定性问题”的“未来法”。因为人工智能风险本身充满着强不确定性、失控可能性及全球化趋势,这就导致秩序行政时代的“确定性”法律解决方案难以为继,两大基石“法律保留原则”和“比例原则”也不可避免地面临着虚置的危险。如何在不确定性中寻求法律的确定性以及如何在“行政宪制主义”理论指引下构建一种法律、公共行政和技术风险之间的文化上共生关系?这无疑是未来行政法的一个研究方向。
总之,“如果我们不做任何前人没有做过的事情,我们就会永远待在一个地方,法律将会停止不前,而世界上其他一切事情将继续前行”,因此,我们应当通过行政法的转型把丹宁勋爵所说的“法律的皱折”熨平,使之与社会现实相适应。
欢迎扫码获取法宝介绍和试用
—更多内容—