域外采风(XII) | 通过机器的规制:机器学习时代的行政决定【Cary Coglianese等著,蔡佳春编译】
通过机器的规制:机器学习时代的行政决策
论文出处:Cary Coglianese; David Lehr, Regulating by Robot:Administrative Decision Making in theMachine-Learning Era, 105 Geo. L.J. 1147 (2017)
作者:
Cary Coglianese教授是美国知名行政法和规制研究学者,是宾夕法尼亚大学法学院法学教授、政治学教授,宾大规制研究项目负责人。
David Lehr 宾大规制研究项目研究员,耶鲁大学法律博士。
编译者:
蔡佳春(北京科技大学文法学院2021级法律硕士)
指导教师:张凌寒(北京科技大学文法学院副教授,法学博士)
本文作者认为:在机器学习时代,行政决定可以在适当的情况下利用机器人规制和算法来增强其公共价值。作者对机器学习及其在为政府创造更有希望的未来方面所能发挥的工具作用持相当乐观的态度。本文内容可分三部分:第一部分对算法的工作方式进行简要的非技术总结,确定了现有的和未来可能的机器学习在行政部门中的应用;第二部分对美国行政机构的算法应用的程序进行法律分析,考虑应用机器学习是否可能违反禁止授权原则、正当程序原则、反歧视原则和透明原则。第三部分回顾了将机器学习应用于行政任务的政策优点。
一、机器学习及其行政应用
机器学习算法根本的用途是预测。与传统的统计技术相比,机器学习具有非参数化的特点,它无需预先指定特定的数学函数模型。尽管机器学习算法在预测准确性和统计效率方面优于传统程序,但这种优势要带来解释成本。机器学习算法通常被描述为将输入转换为输出的“黑箱”(black-box),而从输入到输出的转换无法通过黑箱内部了解,也无法通过传统统计建模的直觉和因果关系解释。机器学习算法能够节省成本和提高效率,而大量工作以准确性作为衡量标准,因此即使机器学习算法的因果性和可解释性存在限制,仍在私营企业中得到了广泛应用。
机器学习的应用对行政机构也具有巨大价值。行政机关开始探索机器学习的用途。例如,芝加哥、纽约、洛杉矶等城市纷纷开始应用机器学习来提高政府效率;美国联邦环境保护署(EPA)、美国国家税务局(IRS)、美国联邦食品药品管理局(FDA)、美国联邦航空局(FAA)等联邦机构也开始依赖机器学习来支持各种规制和行政活动。美国政府正在进入机器学习的时代。
机器学习有三个主要特性,首先是机器学习的“自我学习”特性。算法在运行时,能够按照设定的目标自行选择计算模式,人类无法真正控制其如何对数据进行组合和比较。其次是机器学习的“黑箱”特性,机器学习的预测结果既不能被直观解释,也不能对其因果关系解释,最后,机器学习具有快速和自动化的特性,使用该算法可以缩短或潜在地绕过人类的审议和决策。综合这三个特性,使得机器学习技术在“质”上似乎更独立于人类。
二、行政国家下机器学习的合法性
机器学习能够在什么场景下被哪些行政机关使用,是证明机器学习合法性的关键。虽然算法可以自动学习并支持自动决策,但人类必须决定如何指定、部署算法并将其集成到更广泛的管理流程中。只有在这种前提下的机器学习算法才是“自主”的,并有可能将其输出自动转化为规制行动。算法必须由人来指定参数和用途,这一限定特征很可能在联邦机构对人工智能的特定应用进行法律评估时发挥关键作用。
(一)禁止授权
在美国宪法和行政法中存在的禁止授权原则,对国会将权力授权行政机关规定了一些理论上的限制,随着机器学习日益先进以及越来越多地被行政机关使用,法律并没有规定人类的决策权是否能够被更多地让渡给算法。然而,如果法律规定行政机关行为应该由人来执行,那么授权给自主学习机器可能会导致违宪。机器学习引发的担忧是:立法权的不当授权。
我们面临两种可能的情况:第一种情况是国会授权行政机关用部署的机器学习算法来做出行政决策,即网络授权(Cyberdelegation)。第二种情况是,国会以传统方式将某种行政权力授予行政机关负责人,但相关机构官员随后寻求并依赖机器学习系统来行使该权力,即法定的再授权(Statutory Subdelegation)。
1、对机器学习的授权
美国法院已认识到,为了提高政府效能以及维护公共利益,行政机关可以被授予权力。但国会应详尽描述所授权力的内容、授权机关以及权力边界。而法院不同意国会将权力授予具有法律影响的私营部门,这引发了一个关键问题,即国会授权算法决策的可能性——如果将权力下放给私营部门争议巨大,那么可能将规则制定权进一步下放给机器则更为极端。
出于以下三点原因,法院不太可能将对机器的授权等同于对个人或实体的授权。首先,私营部门可能会谋取私利,而机器学习算法不存在这种情况。其次,即使依靠机器学习算法,政府官员仍将保留对算法规范的最终控制权,并将其输出转化为规制行动。最后,虽然人类可能对算法的运行缺乏足够的控制,但法院普遍认可算法归根结底仅是计算工具。
2、法定的再授权
对机器学习算法的再授权不构成任何明确的法律问题。行政人员使用工具或依靠助手和下属官员所作出的决策不会超出法律赋予的权力,因为在这些情况下,行政管理者的最终决策权永远不会完全或不可撤销地下放,其需要认可或推翻下属的行为。因此行政机关对机器学习算法的使用也不会违反其法定权力。
(二)正当程序
在机器学习时代,行政机关依赖自动机器学习系统来做出的决策是否违反宪法的正当程序原则?
1、正当程序标准
美国最高法院在Mathews诉Eldridge案中提供了在考虑是否违反正当程序时必须权衡的三个因素:首先,个人权利是否受到公权力的影响;第二,是否存在因程序错误剥夺个人利益的风险,以及实施附加保障措施的可能性(如有);最后,政府的利益,包括所涉及的职能以及财政和行政负担。第一个因素是机器学习的完全外生因素。而后两个因素在某些情况下可能会因使用算法而受影响。但总的来说,因为算法可以减少人类判断的负面因素——例如偏见和错误,所以我们有理由相信政府使用机器学习算法可以维护正当程序价值。
2、对用于裁决的算法加以评估
当行政机关评估机器学习算法在避免决策错误方面的优势时,须满足两个条件:一是代表决策过程的准确性的错误率必须是可用的,二是必须证明其错误率是可接受的。由于机器学习是纯粹的数学决策过程,因此应该很容易满足这两个条件中的第一个条件。
第二个条件,即错误率的可接受性,可以通过参考判例法来确定,行政部门可以参考传统程序的先例来指导他们关于算法的决策。如果法院通常看好具有一定准确度的传统程序机制,那么具有类似错误率的基于算法的自动决策应该可以通过宪法审查。
3、对裁决中使用算法的交叉质证
对算法决策提出的更为实质性的正当程序问题是该系统如何影响受害方的质证权。对算法错误的彻底检查将需要对数据进行复杂的解构,很少有原告能够在没有协助的情况下具备进行此类调查和分析的能力。因此,可能需要建立一个中立且独立的专业统计机构或者专家咨询委员来提供监督和审查。
算法系统是否满足正当程序的标准将取决于该系统的工作情况以及对其性能的充分验证。由于人类决策存在偏差和错误,并且机器学习算法决策在其他情况下已经证明优于人类决策,因此可以合理地得出结论,行政机关使用机器学习算法做出的决策也能够满足正当程序的要求。
(三)反歧视
强大的算法可以释放大量可用信息中的价值,但也增加了其在自动决策中编码歧视的可能性。本部分讨论了在行政机关所使用的算法中加入与类别相关的输入变量是否会因平等保护的原因而违宪。
1、可疑分类
根据平等保护条款,最高法院的许多判决都基于对不同阶级的绝对不同待遇的关注。对不同身份公民的差别对待是对平等保护原则的冒犯。
如果机器学习算法包含关于公民特定类别的输入变量,则该变量对预测结果的影响极不可能对于众多个体始终有利或不利。机器学习算法通常能够通过更多数据和所有类型的附加变量来提高其准确性。算法生成的预测可能会支持对某类公民的有利处理,并对同一类别的其他成员不利处理,因为这些预测依赖于多个变量的综合以及非线性交互。法院应该认识到“分类”并不是按阶级身份划分的同义词——至少在应用于分析可能包含阶级相关变量的数据的机器学习算法时不是。机器学习算法不会对不同类公民给予绝对不同的处理。
2、推断歧视意图
机器学习的的黑箱特性意味着,算法用户并不能通过包含变量的算法行为推测出什么,因此需要额外的直接或间接证据将变量与歧视意图联系起来。然而任何人都不可能事先知道某个给定变量在算法中的重要性,或者它的最终效果会对预测的差异产生什么样的影响。即使算法得到实施后,它的黑箱性质也会阻止任何人确定这个变量对任何由此产生的结果差异的影响——无论这种差异是否加剧或减少了这些差距。由于这些原因,试图寻找机器学习算法运行时带有的歧视性意图的证据会十分困难。
3、承受审查的标准
机器学习算法的数学属性可能会阻止法院将这些算法中保护类数据的使用判定为可疑分类或者推断为歧视意图。一个被认为具有歧视性的决策过程是否能够经受得住更严格的审查,将在很大程度上取决于机器学习性质之外的因素,特别是政府目的和国家利益。
(四)透明度
算法的合法性将取决于问责制和透明度。虽然某些算法组成部分可能免于公开披露,但明确、负责任地使用机器学习可以与长期确立的负责任和透明的行政决策原则相兼容。
1、说明理由
法院在涉及复杂科学和数学分析的案件中往往遵从专业机构的专业知识,因此依靠机器学习的决策不太可能因理由不足而被法院驳回。为了满足《联邦行政程序法》(APA)中的合理性标准,行政机构应用机器学习算法决策时,法院希望得到合理的解释,以确保“决策的最终责任在于行政机构而不是计算机”。因此,在机器学习的行政应用中,行政机构需要披露算法规范,包括优化的目标函数、优化所用的方法以及算法的输入变量。
2、信息披露
算法的最终目标是通过优化目标函数实现精确预测,因此通往最终算法的道路是由许多其他算法铺设的。算法的使用者应自愿说明其算法是如何被指定和调整的,但行政机关不应泄露需要被免除披露的信息。信息披露将使人们对各机构的审议过程有一些了解。这也能作为一个良好政府实践的典范。
三、规制国家下机器学习的功用
决定如何以及何时使用机器学习算法可能并不容易,因此加大公众参与有关使用机器学习的决策变得更加重要。当然,花更多的时间进行公众咨询,并就机器学习的使用做出深思熟虑的决定,要比因对人工智能的夸张恐惧而立即放弃要好得多。新技术不断被发明和采用,是因为尽管它们有潜在的局限性,但它们提供了使社会变得更好的可能性。行政机关实施机器学习算法当然具有这种潜力。
如今私营部门已经进入了机器学习时代,政府规制面临新挑战。在本文提供分析的指引下,通过适当的前瞻性思考,向机器学习迈进可以显著改善整体福祉。
域外采风(XI)| 跨部门的权力汇集【哈佛法学院Renan教授撰,徐曦昊编译】
域外采风(X) |《 审议式规则制定:对三个行政参与项目的实证研究》(Wagner,West,McGarity等,郑志行编译)
域外采风(IX)| Blake Emerson《官方理由的呈现:美国法上的行政指南》,李美郡编译
域外采风(VIII)| 伊丽莎白·费雪等《重思对专业性规制机构的司法审查》
域外采风(VI)| 成本收益分析中的若干成本与收益【哈佛桑斯坦教授】
域外采风(V)| 行政法的不确定未来【哥大Kessler&Sabel教授】
域外采风(IV)| 哈佛Mark Tushnet教授:行政国家的历史与未来
域外采风(III) | 自动化行政国家的合法性危机(埃默里法律杂志2021年第70卷)
域外采风 | Cary Coglianese:自动化国家下的行政法(孟李冕编译)
域外采风 | Walker:对行政活动的超司法控制(徐曦昊编译,更新版)