秦小建等:人工智能嵌入政府治理的探索及启示
The following article is from 国外社会科学 Author 编辑部
摘要
人工智能技术通过广泛嵌入国家的行政组织体系及治理实践,正驱动政府治理朝着行政决策自动化、公共服务精准化方向转型,同时诱发出权力技术化与技术权力化的双重风险。“算法黑箱”与“算法歧视”的科技异化,导致权力监督与权利保护难题。“算法权力”的异军突起与“技术依赖”的日渐形成,亦挑战政府监管能力与人的主体性地位。以算法公开、权利保护以及技术补充为代表的既有规制路径,因存在整体性欠缺、保护强度偏低、治理弹性不足的局限,难以有效化解人工智能嵌入政府治理的风险。未来,我国有必要通过治理理念规训算法逻辑、合理配置算法解释义务,以及保持人类理性与人工智能的协同跟进,促进人工智能与政府治理的深度融合,从而实现治理现代化。
关键词
人工智能 ;政府治理;算法权力;技术异化
一、引言
自1956年美国达特茅斯会议(Dartmouth Conference)确立“人工智能”(artificial intelligence)这一术语及概念以来,经过短短半个多世纪的科技探索,人工智能技术已然获得前所未有的发展与应用。时至今日,方兴未艾的人工智能技术正引领第四次工业革命的世界发展浪潮。人工智能技术作为当下科技发展的最前沿,谁也不能无视这一科技力量给人类社会生活方方面面带来的深刻变革。
正如同科技的双刃剑属性一样,智能社会是一个典型的充满机遇与挑战的未知社会。人工智能对公共权力的嵌入,在为各国政府的智能化治理注入新鲜治理资源的同时,也在诱发多重治理危机。人工智能嵌入的政府治理体系与权力运行新型模式,虽具有突出的治理优势,但难以应对所有治理问题,同时也带来诸多治理矛盾。科技先发国家如何处理传统治理方式与人工智能式治理的关系,如何应对技术嵌入政府治理体系带来的权力运行不透明、不公正,以及相关的隐私威胁、信息泄露与数据安全等问题,既是西方政府治理当前正在遭遇的棘手问题,也是值得我国借鉴和反思的重要样本。
于政府治理而言,在智能革命发展大势下,传统社会关系及联结方式正不断走向瓦解、革新与重塑。政府治理在治理环境、治理空间以及治理对象等诸多要素上的深刻变革,倒逼政府治理模式必须对此做出适应性转型。“人工智能正在全方位地改变我们长期以来习以为常的生活方式和生产方式,甚至人的思维、基本概念与场域都在发生着巨大的变化。”作为回应,如何将人工智能技术嵌入政府组织体系及治理实践,寻求科技发展与政府权力运行的有机结合,正成为全球多数国家应对社会转型的一种努力与尝试,也成为一个值得给予持续关注的重要研究问题。本文通过梳理西方国家在政府治理与人工智能的融合方式、风险表征以及规制风险方面的思路,总结西方科技先发国家在融合人工智能与政府治理上的有益探索以及遭遇的治理难题,期望能为推进我国数字政府建设以及国家治理现代化提供经验参考。
二、人工智能驱动政府治理的实践
人工智能嵌入式的政府治理,是以社会规范调整的社会关系为设计基础,通过将其转化为精确量化的固定数字关系,遵循严格的算法逻辑规则所形成的“社会规则+算法规则”模式化治理方式。从西方主要国家的治理实践来看,人工智能对政府治理的深度嵌入,正促使政府行政朝着自动化和精准化方向转型,具体体现为两种相互交织的实践样态:一方面,在人工智能加持的政府治理环境中,智能算法大幅拓展了政府获取信息与数据的来源范围,为政府行政决策自动化提供了充沛的数据支持;另一方面,依托于对基础数据的收集整理,通过精准识别公众诉求,政府还能实现为具有不同需求的公民提供差异化的公共服务。
01
行政决策趋向自动化
1.多元意见的数据化处理
多元社会中不同价值立场的直接碰撞,常常意味着高昂的协商与谈判成本。复杂低效的集体行动,只会导致个体意愿无法在多元纷争中得到充分释放,必要的社会共识亦难以有效达成。而人工智能技术对政府行政活动的自动化改良,不仅简化了人类集体行动的步骤,也提升了多元社会共识凝聚的效率与质量。人工智能技术通过广泛嵌入政府治理体系,增强政府各个职能部门的意见汇集能力,为政府自动化决策凝聚了丰富且可靠的基础性数据资源。
政府治理在人工智能技术深度加持下,更易于捕获并汇集公民的多重意见,这主要表现在两个维度。
(1)相较于传统治理方式,人工智能拓宽了政府治理中公民参与行政决策的渠道,能够将更加广泛的社会意见完整导入到政府智能化决策程序里,个体意见得以在政府治理过程中获得充分讨论。
(2)依托智能算法的文字提取与内容精准识别能力,政府治理通过嵌入人工智能技术还能准确实现对数据系统内不同个体意见的再分类,并在此基础上完成立场统计与初级分析,探测出丰富的社会议题并动态把握公民对不同议题的关注度,从而为政府自动化决策(government automation decision)提供必要的社会数据信息。
2.行政决策的自动化做出
依托人工智能技术对海量数据的标注收集、加工处理及分析运算能力,智能化政府治理不仅能够实现“由外而内”地“载入”(load),还可以针对特定的治理事项“由内而外”地“输出”(output)具体治理方案,自动做出行政决策。具体而言,在目前西方国家的治理实践中,人工智能数字技术在政府行政决策自动化中主要扮演着两种角色。
(1)通过广泛收集与处理海量数据,辅助政府决策。作为政府治理的辅助性技术工具,为政府决策提供数据支持,是人工智能技术在弱人工智能阶段最为普遍的嵌入方式。智能算法对于海量数据的搜集与统计整理优势,能够为政府治理决策提供具有基础性价值的社会事实。人工智能通过信息工具的方式嵌入治理活动,弥补政府在智能社会中暴露出的信息获取能力不足,促进行政决策科学化与民主化。
(2)通过机器深度学习与模拟人类理性,替代政府决策。困于当前的技术瓶颈,人工智能完全取代政府部门而独立做出行政决策虽然并不是当下最为普遍的嵌入方式,但也正呈现出日渐普遍化的趋势。人工智能通过深度自主学习,对于数字化的社会信息,依靠算法逻辑进行自主代入并得出运算结果,从而以一种主体的形式替代政府直接做出决策。
基于人工智能技术嵌入而自动做出行政决策的合理性在于,尽管智能化的治理方案由人工智能体自主产出,但它并非完全诞生于机器数理逻辑,而是在大量标记公民行为数据与社会规则算法化的前提下,经过系统且严格的算法运算而模拟“制造”出来的结果。由于人工智能技术实现了将“意见—决策”的抽象过程数据化与逻辑化,因而以大数据为基础的自动化行政决策本身即包含多数社会成员的意见共识,并且由于人工智能程序一定程度上排除了规则适用中的人为扭曲,从而表现出对具体治理问题较高质量的回应性。
02
公共服务趋向精准化
在莱昂·狄骥(Leon Duguit)看来,现代行政法的基本叙事是公共服务。及时回应公民诉求并提供优质的公共服务,日渐成为世界各国政府追求的目标。随着社会各方意见被大量释放并频繁呈现,信息爆炸的压力也同步传导至政府治理体系中。面对庞大繁杂而又无法回避的各类公民需求,行政部门提供及时与准确的政务回应,成为社会秩序保持稳定的重要前提。能否以最有效、最个性化的方式提供公共服务,成为民众评价政府的指标之一。
人工智能对各国政府治理的嵌入,尤其是智能交互算法的研发与场景化应用,以技术手段节约了交流时间并消除沟通渠道上的障碍,通过广泛接入政务智能体,增强政府诉求回应能力,提高国家与民众的信息交互效率,政府部门得以向公民提供更为个性化与精准化的行政服务,从而释放诉求回应压力。
电子政务(E-government)是人工智能技术嵌入政府治理的典型场景及发展趋势。从政府电子政务依托的基础信息技术上看,西方主要国家业已经历了Web 1.0时代基于门户网站、搜索引擎而开发的两类传统电子政务模式,目前正朝着Web 2.0甚至Web 3.0智能化自动对话及个性化回应方向推进。2017年2月,英国政府数字服务局(Government Digital Service)联合发布《政府转型2017—2020》,提出要改变公共服务模式,打造数字化与智能化政府服务平台,满足公民需要。是年5月,美国特朗普政府也签署行政命令,成立了美国科技委员会(American Technology Council),旨在统筹人工智能科技促进政府公共服务的相关工作,以人工智能的数据与计算优势赋能现代电子政务,提升政府治理能力。
人工智能技术对政府治理的嵌入,弥补了传统电子政务模式在智能化程度上的不足。在传统电子政务模式中,公民只有在庞杂的政府数据库中进行自主检索,才可能获得有效的政务信息,但是检索难度大并且信息模糊度高。因而在这一阶段,无论是专门的政府门户网页,还是各大互联网公司搭建的搜索平台,虽然丰富了公民表达政务需求的智能窗口,但由于其智能交互功能相对不足,公民诉求与政府反馈难以直接匹配。而以人工智能技术为研发基础的政务对话App,通过固定的文字话术或语音识别转换,预设常见政务咨询问题与通用回复,完成了对一般政务信息的自动智能化传递。作为国家与公民互动过程的辅助力量,智能化政务数据系统能够在一定程度上回应公民政务诉求,防止互动需求过载,同时也将政府工作人员从部分重复的事务性工作中逐步解放出来,提高行政效率,缓解诉求回应压力。
当然,模板化的政务信息传递方式仍然只能满足有限的常见政务需求,无法真正达到“政府—公民”直接互动的效果。在社会事务日益庞杂、价值立场日趋多元的时代里,固定的政务回复格式常常难以具有诉求回应的精准性与针对性。当前,以提供更为优质的公共服务为目标的服务型政府建设,对人工智能嵌入政府治理具有了新的技术期待。智能政务服务正在从通用化转向多样化,通过嵌入更为个性化、精细化的算法运算模型,以及以不同公民的特殊政务需求为导向的人机交互功能,“预测公众需求并定制服务”,促进政府公共服务走向精准化。
三、人工智能嵌入政府治理的风险
美国未来学家雷·库兹韦尔在其著作《奇点临近》中指出,“技术在赋予我们创造性的同时,也在赋予我们毁灭性”。无论是海量数据集聚还是机器学习加深,都极大地增加了人工智能的复杂性与专业性,同时也增加了作为普通大众的认知和理解难度。而当这种充满未知性的技术嵌入政府治理中,科学技术实现了与国家权力的联姻,二者牢牢绑定,相互影响、相互融合甚至相互依赖,表现出典型的双向性特征,技术既装备了权力(权力技术化),同时又捕获了权力(技术权力化)。技术权力化的趋势下,不仅“算法权力”嵌入政府治理,科技巨头还依靠技术优势在市场竞争中逐渐形成对数据这一基础资源的分割和垄断,从而巩固其优势地位。而在权力技术化的影响下,作为对“独角兽企业”进行垄断监管的行政机关,不仅由于缺乏足够专业的智识资源而难以有效履行监管职能,甚至还在享受科技红利过程中模糊了公权力运行的过程。相比权力与技术之间的双向共赢,公民权利的实现与保障却并未获得同步提升。国家公权力、社会“准公权力”、公民私权利因此处于失衡状态。马克·安德烈耶维奇(Mark Andrejevic)同样认为,数字技术的发展正在制造人工智能时代的“权利—权力”失衡,而且随着技术进步与实践应用的加快加深,如果缺少有效的规制与引导,这种失衡状态还将进一步延续和加剧,每个公民都处在沦为“数字弱势群体”的危险之中。
01
权力技术化的风险
1.“算法黑箱”形成权力黑箱
“算法黑箱”(black box),是指算法作为核心技术藏身于人工智能体内部,难以为人们直接认知,即便将其从智能体中析出,非专业人员也难以理解其运算逻辑。在珍娜·布雷尔(Jenna Burrell)看来,智能算法之所以成为“黑箱”,主要有三个原因。
(1)作为认识客体的算法,本身具有高度复杂的逻辑体系,因而在客观上为自身铸造了厚厚的认知壁垒。尤其是随着机器学习的加深,算法这一“神经网络系统”的层数与参数更加繁杂,进一步增加了专业化程度。
(2)作为认识主体的公民,由于普遍缺乏专业的数理知识,在算法认识能力上存在明显不足,因而也难以直接揭开智能算法的“黑箱”。
(3)基于国家秘密及商业秘密保护的需要,部分关涉重大利益的智能算法被要求必须严格禁锢在“黑箱”之中,通常情况下不允许被打开。
总体而言,人工智能技术的专业性及其迭代更新的速度,形成并扩大了与不具备专业知识的普通民众之间的“技术鸿沟”。人工智能技术嵌入政府治理后,算法不透明、难解释的技术特征毫无保留地传递到政府公共服务与行政决策中,形成“权力黑箱”。在“权力黑箱”效应下,权利实现出现障碍。公民对政府权力的行使过程无法参与、无法知情、无法监督,主要表现在如下三个方面。
(1)参与空间被压缩。人工智能技术以效率为导向,智能化政府治理也存在同样倾向。而对治理效率的极致追求,无法避免地要对正常治理程序进行删减。但是并非所有的程序都可以被技术化手段所替代,以效率为主导的选择将导致治理程序中必要的公民参与及意见表达空间被严重压缩,诸如听证、论证等参与渠道在人工智能嵌入场景中,难以继续发挥传统意义上的民主化功能。
(2)权力监督更困难。权力的不透明、不公开制造了监督难题,“有权必有责”的现代法治理念被智能科技的嵌入大潮所浸没。政府通过人工智能执行行政事务的理由等无法在决策过程中予以明示,甚至在事后也难以做出合理的解释说明。在政府人工智能行政活动中,政府公权力藏身于智能算法背后,其做出判断的依据及程序蕴含在数理逻辑之中而无须直接展示,并且通常当即做出、生效并执行。面对“技术鸿沟”,一般公民普遍存在权力监督障碍。
(3)权利救济更不易。在政府人工智能决策模式中,行政权行使过程极大缩短,这种决策机制不仅缺少相应的规制措施,而且以效率为功能导向的智能行政忽略了政府行政执法中有权必有责、违法可追责的权力理念。在“权力黑箱”效应下,政府违法行政因技术遮蔽而存在取证难题,而如果智能行政活动无法给出决策理由与解释说明,公民无法提供有力证据,其申请行政救济的权利就会被抑制。
2.“算法歧视”加剧治理偏见
一方面,社会弱势群体在人工智能嵌入的政府治理中被进一步边缘化,无法像其他公民一样行使个人权利,其权利实现路径被“技术鸿沟”所隔断。随着数字时代的到来及推进,人工智能正不断突破技术瓶颈,广泛拓展其嵌入政府治理的形式及场景,深化同政府组织体系及治理实践的联结。而与之形成鲜明对比的是,穷人、儿童、残障人士及老年人等传统社会弱势群体,由于普遍在财产状况、技能储备等诸多方面存有不足,因此在理解人工智能技术与使用人工智能产品上常常遇到多种障碍。并且,可以预见的是,随着未来智能科技的飞速发展,社会弱势群体同人工智能之间的“技术鸿沟”还将会进一步扩大。正是这一智识隔阂的产生与不断加深,使他们无法像其他公民一样有效利用政府治理中正广泛嵌入的人工智能体,因而无法享受智能科技应用于政府治理所带来的时代便利性。在人工智能嵌入政府组织体系的治理环境下,社会弱势群体的知情权、参与权、表达权等诸多公民权利的实现途径,不仅未能与其他公民一道获得拓展,反而被人工智能技术的嵌入所阻滞。社会弱势群体在政府智能行政的框架体系中正逐渐沦为边缘群体,其权益诉求被数字时代的政府科层体系所忽视或者屏蔽。
另一方面,当存在基础数据瑕疵及歧视性算法逻辑时,其他公民也会被人工智能技术不公正地算计,从而成为人工智能嵌入政府治理的牺牲品。尽管在智能社会的许多场景中,人工智能确实可以比人类更加高效且准确地计算出答案,但这一答案却并非总是正确,原因有以下方面。
(1)算法计算及人工智能极其依赖数据,缺失数据或数据错误都将直接降低政府人工智能式治理的成效,基础数据瑕疵会使政府智能化治理得出错误的运算结果。数据是算法逻辑运算及人工智能技术的基础“养分”,对各种治理要素进行完整且准确的数字化标注,是确保人工智能执行结果及政府智能化治理成效的前提性条件。然而,面对政府治理环境的复杂性及因素易变性,人工智能体的数据集往往难以保证原始数据对治理要素“描摹”的覆盖面与精准度,以原始数据为基础的人工智能算法就无法确保正确性。如此一来,在缺乏关于政府治理事项的可靠数据样本的情况下,便难以期待以智能化方式行使的政府权力总是能够得出令人信服的判断。
(2)尤为值得注意的是,即便政府治理中各项基础数据准确且完整,人工智能仍然可能因为其中潜藏的偏见算法逻辑,而得出具有歧视色彩的运算结果。通常认为,科技产品在价值立场上是客观中立的,是一位“理想的中立决策者”(ideal neutral decision makers)。例如,菜刀作为一种工具,其本身并无好坏之分,只有使用者的使用方式才能决定菜刀的实际角色。但是,正如美国科技史学家克兰兹伯格(Melvin Kranzberg)所言:“技术无所谓好坏,亦非中立。”人工智能并不像上述“菜刀理论”一样。人工智能的算法程序由人类设计和创造,是一种可以具有特定价值指向的科技产品。人工智能自其被设计之日起,便可能嵌入了某种立场预设。因而,智能算法并非天然价值中立。树立这一理念,也是对人工智能技术的研发及其应用进行技术审查和法律规制的前提。
在缺少必要的审查与规制时,人工智能便具有被植入个体偏见、执行歧视算法的可能。以人工智能化政府治理中的预测性行政执法为例,预测性算法(predictive algorithm)主要依托人工智能技术的大数据采集与分析处理能力,基于对治理对象历史数据的整理、统计,根据政府治理的不同需求,将具有某类共同特征的人群从数据库中提取出来,从而对那些算法挑选的,尤其是具有不良记录的对象,采取不同的公共服务方法或行政执法措施。尽管人工智能算法的预测优势能够大幅提高政府在部分事项上的风险预防及应对处置能力,但如果仅仅停留于既存的静态数据上,而缺乏对治理对象等治理要素的动态认知,人工智能嵌入的政府治理便可能出现对某类人群的歧视和偏见。与此同时,在政府智能化治理中将民族、种族、性别、职业等诸多不相关数据信息纳入算法运算程序中,在政府治理过程中通过个性化算法技术(personalized algorithm)考量不相关因素,这种不易被察觉的“隐性歧视”(implicit discrimination)事实上也构成一种缺少正当根据的选择性行政执法,从而背离了政府治理对于公平公正的价值追求。
02
技术权力化的挑战
1.“算法权力”冲击政府监管能力
在米歇尔·福柯看来,现代权力并非中央集权式的环状结构,而是错综复杂、多中心存在的网状结构。人工智能时代的权力分布已经呈现出这一趋势。政府权力与人工智能的结合,为社会资本营造了野蛮生长的良机。科技巨头企业通过垄断专业知识、数据及信息,借由技术手段掌握并不断巩固其支配数据信息与公共资源的能力,形成类似公权力的“算法权力”(algorithmic power)。哈佛大学法学教授劳伦斯·莱斯格对此做出判断,政府监管权力似乎正在被“摧残”而不断弱化,而“算法权力”却正在强势崛起并试图取而代之。这一判断不无道理,原因如下。
(1)政府对“算法权力”的监管表现出迟滞性。以互联网公司为代表的平台经济垄断,不仅扩大了其与公民的“技术鸿沟”,而且也拉大了与政府监管部门之间的数据差距。政府对现代社会复杂信息的掌控能力,逐渐难以同社会资本力量相抗衡,对市场的一般监管职能在人工智能时代也因此出现履行障碍。英国技术哲学家大卫·科林格里奇敏锐地发现了其间存在的“社会控制困境”(Collingridges Dilemma,也称“科林格里奇困境”),即规制者对于人工智能技术的异化风险具有规制上的迟滞性,而随着“数据鸿沟”的加大,政府对“算法权力”潜在危险的防范会更加迟缓,不仅难以有效预防风险,而且在风险真正来临时也难以及时应对处置。
(2)“算法权力”在参与公共生活治理中攫取权力资源。技术改变的核心问题是权力的转移科技巨头的“算法权力”在与政府权力的联姻中逐渐具有“准公权力”性质。科技巨头通过发挥在人工智能技术上的优势,将精心设计的智能算法植入公权力运作体系中,联结并俘获权力,从而形成支配性力量。人工智能技术在深度嵌入政府治理实践后,既能为政府部门减轻行政压力,避免直接陷入执法矛盾,还能为互联网企业智能算法的研发应用提供制度环境,科技巨头不仅无须承担过多的算法责任,而且还能够借机攫取到实质意义上的行政决策与执法权力。
(3)政府部门与“算法权力”在治理实践中共商合谋。随着政府公权力不断向科技巨头企业扩散与转移,“合法行使暴力的权力”不再专属于国家机关,公域与私域的边界变得模糊,社会资本的某些智能化经营行为也同样具有“数据暴力”的权力属性,形成算法权力与公共权力的共商合谋。社会资本力量在政府治理中的崛起,分解了长期专属于政府部门的权力与手段,公权力在“去中心化”的同时也在“再中心化”, “算法权力”不断膨胀,社会资本基于技术优势在公共生活领域捕获公权力,在市场竞争中依靠技术优势攫取数据资源,巩固垄断地位。
2.“技术依赖”助长政府权力惰性
政府治理形成对人工智能的技术依赖,首先源于国家治理的现实需求。有学者从财政税费政策的主要特征维度将国家治理划分为两种基本类型:“汲取型”国家治理与“给予型”国家治理。在“汲取型”国家治理模式下,国家主要通过扩大中央财政、收缴各类税费等方式从社会中广泛提取建设资源。而在“给予型”国家治理模式中,更加强调国家财政资源对社会成员的持续有效输送。如果说在第一种治理模式中,国家对大数据系统及人工智能技术的需求尚不迫切的话,那么在第二种治理模式中,国家的实际治理成效却十分依赖其对信息与数据的收集运用能力。因为,想要实现公共资源的优化配置与治理现代化,国家不仅需要详细掌握社会对每种公共资源的实际需求程度以便全面准确分配,而且也需要及时获得国家资源输送效果的反馈以便动态调整分配策略。而人工智能识别技术的发展应用与大数据系统的建设,能够极大提高国家信息获取能力并实现公共资源有效给予,也更加契合现代服务型政府的治理需求。
此外,这种依赖也与智能化治理的进步性有关。
(1)传统治理模式支配下的社会,“人治”色彩浓厚而规则意识相对淡薄,以弹性空间巨大的人情关系作为首要治理工具。即便有成文的治理规则,在国家与社会治理中扮演重要角色的仍然是“人”而非“规则”。规则在应用于治理实践过程中,常常掺杂过多的人为因素及不确定因素,导致其在实际运行中被人为扭曲,难以实现预期治理目标。
(2)基于“数据—算法—机器”的人工智能治理,以对社会信息的数字化采集技术为基础,同时将社会生活中规则逻辑转化为算法形式逻辑下的计算机命题,通过代入数字信息并按照预设逻辑演算,得出计算结果,再通过对数字结果的还原,得到治理结论。相比之下,人工智能技术完成了对社会规则的数字化改造,剔除治理中“人”的因素,削弱“人”在治理中的作用,治理规则难以被轻易改写,在人工智能嵌入的政府治理环境下,规则明确并以相对客观、模式化的“程序”运行,一般不会变形走样。
“技术为人类的选择与行动创造了新的可能性”,人工智能对社会生活的嵌入,提高了政府在事实判断与行为预测上的准确性,避免做出错误决策。然而,人工智能的成功可能意味着人类厄运的开始。斯图亚特·罗素等人认为,机器成了社会的主人,而原本作为主人的人类却成了智能时代的奴隶。随着人工智能技术的进步,替代功能逐渐增强,人工劳动在更大范围上让位于智能机器,曾经被认为专属于人类的思维、观念、价值等主观判断活动,甚至都能被机器取代,人类自主性减弱,政府治理容易滑向懒政的一面。智能算法与公权力联姻之下的科技决策,导致政府治理由于“去政治化”而走向纯粹依赖技术手段的过程,无形之中在政府部门与普通大众之间又建立起新的交互“隔离带”。
人工智能主要以数据统计的概率预测为标准进行判断,因而在仅有残缺数据样本时难以避免算法偏差,极有可能生产出不准确甚至是错误的预测决策。如果完全信赖智能行政而缺乏对机器犯错的警惕,对人工智能的可控性(controllability)要求便会落空。看似更加科学合理的政府智能决策,可能只是算法缺陷或者算法共谋的结果。对智能技术的依赖,还强化了政府治理中工具理性的运用而对价值理性有所抑制。行政机关是法律的执行机关之一,但正如霍姆斯(Oliver Wendell Holmes)所言,“法律的生命不是逻辑而是经验”,如若完全以人工智能体的数理逻辑取代行政机关权力运行逻辑,将法律规范转换成可供运算的代码规则甚至将其作为最基本的权力行使模式,那么,即便严格遵循既定的数理逻辑结构进行判断,但如果智能化行政将政府治理中需要的“经验”抛之脑后,则仍然难以通过算法运算规则“重现”法律规则中所蕴含的法治理念和基本精神。
四、风险规制的既有路径及其局限
为应对人工智能技术嵌入政府治理带来的风险与挑战,西方国家在治理实践与法律制度中,尝试从公开算法模型、赋予数据权利以及补充科技手段等方面化解治理风险。通过公开算法,试图消解人工智能嵌入政府治理的程序不透明,却无法消除公民与专业技术间的智识差距;赋予公民以数据权利,试图约束日益崛起的智能算法及其嵌入,却忽视了在促进科技发展与保护私人权利间保持平衡;以其他技术手段克服人工智能技术的劣势,却难逃刚性有余而弹性不足的治理缺陷。
01
算法公开的局限:难以单独开启权力黑箱
公开权力行使的依据与程序,将其暴露在公众视野之下,由于能够获得较为直接的监督效果,因而一直被作为制约权力的典型模式之一。针对人工智能嵌入引致的权力运行不透明,以公开算法的方式增强政府人工智能式治理的透明度(transparency),正成为域外人工智能规制的一种显明趋势。算法公开,一般是指公开算法的数据集(data set)以及源代码(source code)。直接展示政府在应用人工智能技术中所依托的数据、代码,以及作为人工智能基础架构的算法模型,旨在使公民也可直接知晓政府在治理决策中嵌入的具体算法框架,并期待其能透过这一框架进一步理解背后的政府权力运行,同时亦可倒逼政府在嵌入人工智能技术时,严格遵循合法性与合理性的基本要求。然而,由智能算法所深度加持的政府治理活动,早已被嵌入了高度复杂性与专业性的技术特征,因而在将传统权力监督逻辑直接移植或者简单套用到政府智能化行政上时,往往欠缺规制针对性而影响规制有效性。
这一规制手段的出发点固然没有错,但结果往往事与愿违,难以实现预想的规制目标。虽然公开算法在一定程度上满足了大众的知情权要求,但多数公民仍然无法在公开的基础上参透其技术逻辑,更无法达到以公民私权利监督政府治理的目的。
(1)无论是简单算法还是复杂算法,由于技术专业性的隔离,公民在人工智能技术的数理逻辑面前,都是“算法小白”。对于多数人而言,公开的算法数据及代码,不过是一堆没有太多实际意义的数字与符号,更难以指望他们有能力根据复杂的数据模型,去判断算法所表达的政府治理决策是否合法合理。
(2)人工智能技术以深度自主学习见长,因此,随着社会对人工智能体自动化需求程度的日益提高,算法模型的参数与层数也必须同步增长,在这一背景下,算法复杂性只会增加而不会减少。这就意味着,即便是具备一定算法知识的公民,甚至是专业的程序员或算法专家,也难以准确判断应用于某一专业领域的智能算法,是否完全符合该领域的特定治理要求。对于专业人士而言,公开算法,也只不过是使算法这一“黑箱”变成了“灰箱”而非“白箱”。
公开政府人工智能式治理的推演逻辑,旨在掀开自动化决策的算法“面纱”,然而其做出问题处理决定的理由以及判断程序,由于被智能算法的专业性与复杂性所遮盖而无从得知。相较于政府传统行政活动,以算法方式运行的行政权力如同在其外部覆上一层厚厚的“保护壳”,公开也只能看到算法这一神秘“外衣”却无法看到政府智能化行政的本体。公开算法,看似使政府权力的行使变得更加透明,实际上不仅为公权力保留了不透明地带,还为权力滥用提供了“挡箭牌”。因此,算法公开的规制手段并不能填补“数据鸿沟”并彻底揭开算法的“黑箱”,更无法实现对政府行政权力的有效监督。同时,考虑到算法公开对数据隐私、信息安全以及算法知识产权等方面产生了新的威胁和隐患,其作为规制手段的有效性便更加值得质疑。
02
权利保护的不足:未能有效对抗算法滥用
人工智能以其技术优势不断融入社会生活,尤其是,伴随人工智能技术的深度嵌入,政府行政权力行使逐渐走向模糊与隐蔽,社会资本对数据与信息表现出日益明显的垄断倾向。相较于人工智能技术的发展以及政府智能化治理的大潮,公民却正在逐渐沦为数字时代的弱势群体。政府公权力以及社会“准公权力”飞速崛起,而公民数据权利却并未得到可以与之抗衡的发展。面对人工智能在政府治理中的深度嵌入,“不适合人工智能运行逻辑”的数据权利,既不能有效对抗占领技术高地的算法权力,更无法应对科技加持的政府权力。
正如前文所述,“算法黑箱”“算法歧视”等技术异化现象阻滞了公民参与、知情以及监督等权利的实现。于是,赋予公民在新型行政场景下的具体化数据权利,以对抗政府公权力以及算法权力的侵害,便成为另一种规制选择。例如,囿于互联网企业网站数据与信息政策的繁杂程度,以及公民对隐私政策有限的认知能力,以“知情+同意”为必备的前置生效条件的用户协议,不仅未能成功保护使用者的个人隐私和信息安全,反而成为算法陷阱的掩体和保护伞,互联网平台得以以此为由,对算法运行中的数据采集和使用程序进行合法性辩护。可以预见,个人将面对的恐怕是更加冗长的数据保护政策。在面对信息收集算法时,知情同意权以及隐私立法赋予公民的自主选择权形同虚设。对于公民来说,由于其专业技能与审查诉求机制缺失,难以逾越“智识鸿沟”,揭开神秘的技术面纱去认识算法逻辑的深层次陷阱。
美国传播学研究者马修·辛德曼在分析互联网对现代民主的影响时提出,是否具备使用网络所需要的技能,会造成更深刻的阶层分化。互联网巨头企业借助在智能算法研发上的专业优势,逐步拓展其获取用户信息的广度与深度,形成并不断巩固“平台—用户”在数据资源掌握上的不平衡状态,通过构建网络使用者的完整“数据画像”,并利用“信息不对称”原理,调整其商业经营模式,以“大数据杀熟”“差异化定价”等垄断性质的经营手段攫取更多经济利益,而公民却无法有效使用网络,更无法以智能科技为手段有效维护自身权利。
约翰·切尼-利波尔德认为,在算法权力面前,公民不再是社会的主角而是成了可以被计算、预测及控制的客体。人工智能基于其在大数据统计分析与算法运算方面的优势,可以做到比人们自己更了解他们,易言之,算法能够比人自身更加准确地预测人类的行为活动。美国学者凯斯·桑斯坦将这种只输出和展示使用者们所喜闻乐见的信息、公民被逐渐困入个性化算法推荐中的现象概括为“信息茧房”(information cocoon),在智能算法编织的“信息茧房”中,个体的自由选择甚至认知水平都会受到机器算法逻辑的限制。在这种环境下,很难期待公民可以察觉到数据权利正在或者已经被侵犯,也难以期待公民可以通过举证对抗权力滥用而有效救济自身权利。
03
技术补充的乏力:无法克服治理弹性不足的弊病
面对人工智能技术嵌入政府治理带来的应用以及规制难题,从人工智能技术本身入手,试图以一种技术手段克服另一种技术的缺陷,从而化解智能算法嵌入之后产生的治理风险,构成了另一种规制在政府治理中嵌入人工智能技术的思路。在这一规制路径中,研究者关注的当属区块链(blockchain)技术,希冀通过发挥区块链的技术优势弥补人工智能的技术缺陷。
加拿大数字经济之父唐·塔普斯科特等人认为,区块链技术由分布式账本技术、算法加密技术以及点对点传输技术等一系列底层技术组合而成。从实践发展来看,区块链技术主要应用于三种场景:货币数字化、合约智能化及社会智能化。货币数字化以比特币、国家数字货币等加密货币为典型代表;合约智能化使普遍信息化的未来财产在合约条件触发时自动达成交易;社会智能化以人工智能与区块链的技术合力为基础,人工智能创造适应社会发展的智能体,而区块链则在人与智能体间建立联结网络。基于区块链技术搭建的新型互联网,超越了基于TCP/IP协议搭建的互联网模式,在传统互联网基础上更加追求数据传递中的真实性与安全性,注重网络空间的隐私保护及风险防范。
的确,相比人工智能技术可能形成的数据资源过度集聚,区块链技术更加倾向于实现数据信息的分散式储存(distributed database)。通过数据的点对点传输,既精简了传递流程,节约了数据传递时间,也降低了信息中心化交互的风险与成本。这些底层技术的特征对于化解智能算法嵌入政府治理带来的数据隐私、信息安全等难题具有重要意义。因此,相较之下,以区块链技术为基础的智能应用是一种蕴含更多现代社会价值理念的信息技术,人工智能技术给政府治理带来了新的危险,而区块链却具有回应政府治理难题的技术特征。正是如此,西方学者才会将区块链技术视为对人工智能科技的一种反向解构力量。
可即便如此,以区块链为代表的技术规制手段仍然无法摆脱科技的固有缺陷,也难以克服其在治理效果上刚性有余而弹性不足的弊病。区块链与人工智能同属于政府智能化治理依托的技术手段,区块链治理严格依照固定的运算逻辑与算法模型,遵循通过简化复杂社会现象而搭建的算法程序,这就决定了人工智能嵌入的政府治理也仅仅能够应对有限的治理事项,而无法根据实践中治理事项所含要素的变化而做出及时且适当的运算逻辑调整。
此外,区块链等技术手段是处在发展过程中的技术措施,与人工智能同样是“尚未定型,更未成熟的开放性、革命性、颠覆性技术”,以技术手段应对治理危机,既难以避免新兴科技可能蕴含的潜在规制风险,也容易强化政府在治理活动中的技术依赖心理。乌尔里希·贝克(Ulrich Beck)敏锐地指出,人类社会将会呈现出更加明显的风险社会特征,并且风险主要来源于人类自身。科学技术嵌入政府治理的泛化,在强化社会资本力量获取权力资源的同时,只会继续抑制政府治理中行政机关主体价值的发挥,进一步助长行政人员在公共服务与行政执法上的惰性,为政府权力不作为制造机会。
五、人工智能嵌入政府治理的启示
鉴于西方科技先发国家的治理实践,我国在面对人工智能科技的嵌入大潮时,应在技术研发尤其是嵌入环节,以安全、平等及公正等价值目标规训智能算法的效率与逐利逻辑;在算法公开基础上,在人工智能应用的行政场景均衡配置算法解释义务,缩小公民与人工智能式政府治理之间的数据鸿沟,既能监督权力公正行使,又有助于维护个体权利;发挥人工智能在政府治理中的技术优势,重新定位人类智能(human intelligence)的角色,通过及时跟进技术发展,规制智能化治理的缺陷,实现二者协同治理。
01
以公平与安全理念规训算法逻辑
科学技术的进步以人力与物力资源的不断投入为保障,需要依赖持续、长期的资本注入。因而在资本驱使下,科技对其表现出较高的依从性并具有明显的逐利倾向。人工智能研发者通过优化技术框架、开发新功能不断提高智能产品的应用价值,进而拓宽市场范围,帮助投资者获取高额经济利润。从表面上看,智能算法似乎只是纯粹的技术,但其实背后是资本的力量。因此,算法逻辑本质上是在资本逻辑影响下的一种技术逻辑,具有追求利润最大化的逐利倾向,在对社会因素化约基础上进行问题的简单处理,无论是在原始数据采集还是算法模式设计上,人工智能体产品都更加倾向于根据多数公民的需求而研发,不仅技术开发难度与成本较低,而且具有较为可观的市场应用前景。
马丁·海德格尔(Martin Heidegger)早已提出,“技术是存在尺度的,技术应当是合乎目的的工具”,契合政府治理的基本理念与价值目标,应当是对人工智能技术嵌入政府组织体系及其治理实践的基本要求。既然技术并非价值中立,可能会异化为权力腐败与歧视的工具,那么同样也可以被植入政府现代化治理所无法或缺的基本价值共识。算法逻辑的经济与效益指向,不应忽略现代国家对公平与安全的目标追求,因而需要通过在智能系统中嵌入符合人类价值追求的基本算法运行逻辑,在智能算法的设计与应用中广泛嵌入公正、平等、安全等核心价值,降低算法及其应用走向异化的风险,实现政府治理的基本价值理念与算法运算逻辑的融合。
一方面,技术研发与算法逻辑应当与政府在治理中对于平等、公正等价值理念的追求相契合。因此,在智能化治理中实现弱势群体的基本权利,需要算法设计者怀着对人的尊重、责任感去构筑智能算法。首先应当在数据采集过程以及算法模型设计中嵌入平等理念,不应将涉及少数群体的事项直接视为小概率事件,而做简单化、模糊化处理甚至完全屏蔽。其次,在人工智能技术广泛嵌入治理的同时,政府还应当为那些不愿意或者不习惯接受自动化行政的人群保留传统治理途径,通过提供同等质量的公共服务,实现智能算法嵌入与政府合理行政的平衡。
另一方面,智能算法的高度不确定性以及政府治理对于国家与社会安全的追求决定了“风险预防原则”(precautionary principle)的重要性。在研发环节以数据信息与隐私保护等价值目标事先审查算法,通过“数据保护影响评估”(data protection impact assessment)以及“经由设计的数据保护”(data protection by design)等治理措施来预防算法风险正成为世界潮流。欧盟《通用数据保护条例》(General Data Protection Regulation)第25条第1款也明确规定,“考虑到行业最新水平、实施成本及处理的性质、范围、目的和内容以及处理给自然人的权利与自由造成的影响,数据控制者应当在决定数据处理方式以及进行处理时以有效的方式采取适当的组织和技术措施”。这一规定同样旨在将信息安全与数据保护的治理要求,提前嵌入到算法运算及模型中去,进而降低其在政府智能化治理中的安全风险。
02
以算法解释义务增进权力透明度
权力技术化和技术权力化虽为公民权利的实现带来了一定的便利性,但同政府公权力及算法权力在数字社会发生的变化相比,公民权利在人工智能时代仍居于弱势地位。因此,对公民数据权利的赋予,应当结合智能算法的技术特征以及其在嵌入过程中逐渐形成的强势地位,充分考虑这些权利是否具有实现和保障的可能,使其能够在权力日渐膨胀的背景下,足以对抗技术与权力的双重威胁。“空头”权利不仅无法起到保护公民数据隐私及信息安全的作用,反而还可能成为智能行政或算法权力滥用的“保护伞”。面对不透明的算法及智能化行政活动,公民可以首先通过申请公开的手段维护权利,但是如果公开算法也无法使其获得充分的理解,必须赋予公民在一定范围内申请算法解释的权利,通过行使解释请求权,要求有关主体对人工智能嵌入的政府治理做进一步说明,以增进对政府智能化治理活动的认知。
正如前文所述,公开的确可以在一定程度上增强算法透明性,但这只不过是一种“有限透明”。公开其实在多数情况下根本无法促进公民的算法理解,无法满足权利保障以及权力监督的强度需要,算法公开实现的“有限透明”只是一种“形式透明”。因此,为了弥补算法公开在规制上的局限性,提高权利监督权力的强度,实现算法的“实质透明”,迫切需要具备“可解释性的人工智能”(explainable artificial intelligence)。也就是说,仅仅公开算法无法对知情权和监督权保障到位。在算法公开之后,公民若仍然无法判断政府算法行政是否合法合理时,算法设计者或算法应用者应当对此做出算法解释,通过解释弥补公开的不足。采用“公开+解释”的组合方法,打开“算法黑箱”以提升算法的真实透明度。对算法的解释要以能否使相对人较为清楚地理解为标准,以智能算法技术逻辑是否符合合法性与合理性为基本要求。
但需要注意的是,正如英国数据科学家维克托·迈尔-舍恩伯格与肯尼思·库克耶所指出的,相比于人类主要以“因果关系”(causality)作为问题分析及判断的方法,智能算法则主要通过“相关关系”(correlation)进行逻辑推演,而关联性与准确性存在对立可能。同时,在哲学家赛尔(J.R.Searle)看来,“任何一个程序都不具有人脑的意向性”。因而,以概率统计为基础、以数理逻辑为模型的相关关系,显然与以因果关系为主的“知识逻辑”是两种无法直接互译的逻辑结构,因而难以对智能算法做出完全符合“知识逻辑”的解释。因果律推断与相关性判断间矛盾关系的客观存在,预示着算法解释必须基于算法难度去设定合理的解释标准与范围。在人工智能嵌入的治理场景中为政府部门合理配置解释义务,意味着算法解释至少应止于国家秘密、商业秘密,以及使行政效率严重降低,既要尽力达到可以帮助普通大众理解的程度,又不至于增添过于沉重的解释负担,从而“平衡算法应用开发者负担与用户或公众收益”,在保障公民数据权利与促进技术的发展及应用之间寻求平衡。
总体而言,“数字化、互联网以及人工智能技术是新兴媒体得以蓬勃发展的基础,它们几乎是在一夜之间出现在我们的面前”。考虑到智能社会中数字弱势群体的客观存在,对于 排斥与抵触政府人工智能治理的公民,首先应当赋予其免受算法决策的权利;即便接受政府 治理的人工智能模式,也有权通过申请公开和解释算法,质疑和监督政府的自动化决策过程。 只不过,考虑到算法决策具有典型的瞬时性特点,如果为了保障公民的参与、表达以及监督等权利而随时中断算法程序、要求进行算法解释的话,既不符合智能算法技术的效率追求,也不利于人工智能的进步与应用推广。赋予公民在智能决策之后请求算法解释的权利,或许更加符合技术自身发展的特征。
03
人类理性对人工智能的协同跟进
人工智能技术在政府治理实践中走向嵌入泛化,根源于人类对自身的主体价值缺乏正确认知和定位,盲目相信和依从科技力量而忽视人类的理性与智慧。因而,在未来政府的人工智能治理场景下,必须首先明确人工智能与人类智能各自扮演的角色与承担的功能,通过合理的人机分工与衔接配合,发挥不同智能模式的治理优势。在明确各自定位后,便需要根据裁量空间大小,进一步明确人工智能技术能够嵌入行政活动的范围及具体事项,通过控制嵌入限度,防止技术对权力的“殖民化”,以寻求智能算法应用与政府依法行政间的平衡。
考虑到各自不同的特征与优势,人工智能技术在当下的政府治理中仍然应当主要承担辅助功能,而作为治理主体的则应是人类自身的理性。
(1)所谓辅助,源于人工智能技术在重复性及程序性等行政事务中展现出的独特优势,在信息收集、数据共享、分析预判等方面可以有效协助政府工作人员,同时在基础数据较为丰富并且规则逻辑相对清晰的行政活动中,也可帮助行政人员完成公共服务或者行政执法。
(2)所谓主体,是考虑到机器缺陷的客观存在,即便在人工智能深度嵌入的场景中,政府仍然应当是治理活动的主体。一是,政府必须对智能化公共服务或自动化行政执法承担主体责任、最终责任,对智能行政的过程及结果负责,而不应该归责于技术及机器;二是,对于较为依赖价值判断、道德衡量以及其他风俗习惯等裁量空间宽泛的行政活动,人工智能不适合直接介入,而是应当发挥人类主观能动性来完成治理决策。
正如《纽约时报》高级科技记者约翰·马尔科夫所言,“机器或许能够实现对人类的动作与感受的模仿,但它们毕竟不是人类”。人工智能虽在某种维度上可以被视为“人”,但并非化解当下现实难题的迫切选择。科学技术总是处在发展中,弹性不足的缺陷难以从根本上避免,完全相信和依赖人工智能技术便脱离了“以人为中心”的治理观念。人应是社会关系的主体,也是政府治理的主角,人应该决定技术应用的方式、决策与执行过程,并承担人工智能治理模式的责任。需要强调的是,之所以要对二者做出上述角色划分与范围限定,并非纯粹是为了维护人类主体性而刻意强调人类理性的主体价值。因为我们必须要承认,伴随着科技的迅猛进步,人工智能可以取代人类劳动的范围必定会不断拓展,应用场域也会更加广泛。在人工智能日益成熟的背景下,人类主体性逐步削弱是无法避免的发展趋势。只不过,在智能社会环境下,我们必须以一种更加开放的态度面对人的性质变化,为人工智能嵌入治理后的政府职能重新寻找角色定位。就当下而言,人工智能技术还难以完全超越人类智能的地位。人工智能在海量数据处理与深度计算方面具有显著优势,人类智能同样具有功能上的独特性,二者相辅相成、相互依赖,无法完全取代彼此。因此,在推进我国国家治理现代化的过程中,有必要将人工智能的“刚性治理”与人类智能的“柔性治理”充分融入治理体系及实践,以人工智能技术为政府权力运行增效提质,以人类理性丰富政府权力行使中的人文关怀,实现“信息技术工具理性与数字化转型价值理性的内在统一”,以工具理性与价值理性的合力共同促进治理现代化。
放眼未来,科技进步必定会将人类社会推向更高级的“强人工智能”(artificial general intelligence)甚至“超级人工智能”(artificial super intelligence)阶段。我们需要直面的是,未来无论是哪种智能时代的演进,技术进步的速度往往都会先于人类社会的制度发展程度。因此,一个能够保持稳定性同时又兼具开放性的制度体系,无论是对于人工智能技术的自身发展,还是拓展其未来嵌入政府治理的广度与深度而言,均具有重要意义。鉴于社会规范尤其是法律制度常具有滞后性,我们无法要求社会制度完全做到同人工智能技术同步发展,但应当始终保持对技术发展与应用的敏感性,及时跟进技术进步所诞生的诸多新样态、新实践与新关系,并保持对人工智能技术嵌入政府治理隐藏风险的适度前瞻性。也只有如此,在未来更为高阶的人工智能时代到来之时,国家与政府治理现代化才不会落入技术异化的陷阱。
六、结语
智能科技的嵌入,应当契合政府治理的目标与价值追求。人工智能以其在处理效率与准确性上的技术优势,赋能政府组织体系及治理实践,实现政府治理向行政决策自动化与公共服务精准化方向转型。未来,随着数字化技术的进一步推广应用,人工智能还将更加广泛地嵌入政府治理体系,政府自动化行政的场景及方式也将进一步丰富和拓展。然而,“对技术的垄断、资源配置不公和道德伦理”等问题始终制约着以算法为底层逻辑的人工智能科技的发展。因此,在面对变化发展中的事物时,我们应当始终把握其本质发展规律,发挥“人在技术面前的主体性和能动性”并“抽取技术的正面价值以提升人类福祉”,厘清人工智能技术加持政府治理场域的优势及潜在风险,探讨风险预防与规制的可能路径,这有助于我们更好地看待人工智能技术对政府治理的影响,理性推进政府数字化建设及国家治理现代化。从这一意义上看,人工智能技术的嵌入,不再仅仅是一个纯粹的技术性问题,更是一个关涉政府治理模式与现代化程度的问题。将人工智能嵌入政府治理是顺应时代潮流的必然选择,未来我国仍须持续关注世界其他国家在融合人工智能与政府治理上的有益探索,不断创新科技发展与权力运行的融合方式,克服政府智能化建设中的技术及治理风险,寻求人工智能技术与政府权力体系有机结合之道,推进政府数字化建设及国家治理现代化。