查看原文
其他

人工智能的监管替代方案

FinTech研究所 人大金融科技研究所 2023-03-29


人工智能(AI)的普及度正经历着另一次周期性增长,发表于Computer Law & Security Review的论文Regulatory alternatives for AI探讨了人工智能的威胁和用来监管人工智能的一套原则和业务流程。中国人民大学金融科技研究所(微信ID:ruc_fintech)对文章核心内容进行了编译。

来源 | Computer Law & Security Review

作者 | Roger Clarke 

编译 | 邓宇杰



引言



本文首先介绍关键的监管概念,包括设计和评估监管制度的标准。对自然控制的讨论可以为监管干预定义阈值测试。接着突出了现行法律的无效性。然后概述了监管方案可以采用的各种形式,并考虑了每种形式与AI特定功能的相关性。文章最后提出了一个共同监管框架的建议,以管理AI产生的公共风险。


监管概念



本节简要总结了监管理论中的关键概念,以便为开展AI监管替代方法的分析奠定基础。“监管”的概念有很多定义,例如,参见Black(2002)以及Brownsword和Goodwin(2012),监管是对实体行为的控制。


对实体的三个主要类别进行了有效区分,如下所示:

“受监管者”是受监管方案约束的实体。监管机构可能包括公司,非法人商业企业,政府机构,合作社,非法人协会和非法人协会以及个人。


“监管者”是行使权力以实现对监管者行为的控制的实体。监管机构可以是受到严格控制的政府机构,也可以是相对独立的委员会,但也可以是诸如证券交易所之类的法人团体,甚至可以是管理行业行为准则的协会。


“受益人”是指有意,无意或偶然地通过监管安排受益的实体。


对任何特定监管环境的详细分析都需要更精细的分析。其他特别重要的实体类别是监管者的代表和中介者(例如律师,保险人,金融家和顾问),以及倡导受益人的利益。这些实体支持市场信号流,这对于有效的监管计划至关重要。


表1列出的标准提供了有关监管制度设计和现有方案评估的指南。


表一:设计和评估监管制度的标准

自然控制和干预的理由



人工智能技术以及基于人工智能的人工制品和系统可能会受到相关社会经济系统固有过程的限制。人工智能甚至可以刺激自然过程,其效果是限制采用或者遏制或减轻负面影响。


自然控制的一个常见例子是对该技术能否兑现其支持者的承诺表示怀疑,从而导致发明缺乏投资。在某些情况下,对技术潜在利益的实现可能会受到对基础设施的依赖,而这些基础设施不可用或不足。自然控制的另一种形式是对自己的利益产生负面影响的实体行使反补贴权。常见的例子是竞争对手,供应商,客户和雇员的市场力量,以及监管机构,金融家和保险公司的机构力量。反对者通过媒体激起公众的谴责一直是可行的,社交媒体现在提供了更多的机会。


从自然控制研究中可以获得的另一个重要见解是,可以设计监管措施来加强自然过程。例如,对无人机和无人驾驶汽车的操作者施加严格责任可能会鼓励更加谨慎的风险评估和风险管理。


评估现有和增强的自然控制方法是进行任何监管分析的重要先决条件,因为出发点必须是:

事物的自然秩序不充分怎么办?干预将如何改善这种状况?


例如,澳大利亚生产力委员会提出的六项原则中的第一项是“除非明确确定了采取行动的理由,否则政府不应采取行动通过监管来解决'问题'。这应包括评估和解释为什么现有措施不足以解决该问题”。阈值测试很重要,以确保充分了解特定情况下存在的自然控制。


“预防原则”的强大形式存在于某些司法管辖区的环境法律中,其遵循以下方面:

当人类活动可能导致在道德上无法接受的损害,这在科学上是合理的但不确定的,则应采取措施避免或减少这种潜在的损害。


本系列的第一篇文章认为,AI的威胁是容易识别和严重的。但是,即使不接受该观点,人工智能支持者也认为不可避免的影响范围是如此之大,以至于至少在两种形式中的较弱者中都采用了预防原则。因此,除非有证据表明已经采取适当的监管措施,否则就存在进行监管干预的有力理由。因此,以下部分简要概述了现有的监管安排。


现有法律



本节首先考虑可提供适当保护或至少有助于监管框架的一般法律条款。然后,它审查了引发AI专用法律的计划。


通用法则

新技术的应用通常要遵守现有法律。其中包括各种形式的商法,特别是合同义务,包括明示和默示条款,消费者权利法以及版权和专利法。在某些情况下(包括机器人技术,机器人人工制品和设备中嵌入的AI软件),产品责任法律可能适用。其他可能给创新者带来风险的法律,例如过失侵权行为,也可能适用于人权法,反歧视法和数据保护法等普遍适用的法律。公司法赋予公司董事的义务是相关的。监管影响的其他来源可能是与应用AI的各个行业相关的法律,例如道路运输法,工作场所和就业法以及卫生法。


但是,特别是在普通法司法管辖区中,如果发生任何特殊纠纷,法庭和法院适用法律的方式可能存在很大的不确定性。尤其是对于“突破性”,革命性和颠覆性技术,现有法律可能不适合新环境,因为这些法律“是围绕相对遥远的过去的社会技术环境设计的”,并且不了解新形式。在某些情况下,现有法律可能会以不利于创新者和受创新者影响的方式阻碍新技术的发展。在其他情况下,现有法律的制定方式可能不适用于新形式,或者必须进行改编才能使其看起来适用。


特定于AI的法律

各种出版物都讨论了机器人调节的一般问题,但很少能确定AI特定的法律。


在HTR(2017)中,韩国被确定为颁布了与机器人技术有关的第一部国家法律:2008年《智能机器人发展分配促进法》。它几乎完全是促进性和刺激性的,甚至与机器人技术的监管无关。有人提到“宪章”,“包括总统令所规定的规定,例如应遵守智能机器人的开发商,制造商和用户应遵守的道德规范”–但是似乎没有这样的宪章。


一方面,可能是基于AI的技术破坏性不如声称的那样,并且法律几乎不需要调整。另一方面,“技术中立”的神话充斥着立法。真正地具有破坏性的技术可能希望法律同时包含现有和未来的人工制品和程序,而具有破坏性的技术却会使现有法律模棱两可且无效。


人工智能不仅没有受到适当的自然控制,而且当前适用的法律似乎不足以应对它所体现的巨大威胁。因此,以下部分概述了可以应用的各种形式的监管干预措施。


监管形式的层次



本节反映了前面概述的监管概念,并根据监管干预的形式程度介绍了层次结构内的替代方案。前面的部分讨论了自然监管,在图1中,将其描绘为层次结构的最底层(1)。

图一:监管形式的层次


监管理论家通常提及的是可用于干预自然过程的“工具”和“措施”。原则上,其目的是遏制有害行为和过度行为;但在某些情况下,这样做的目的是做个样子,以便阻止更强大或更有效的干预措施。图1将故意设计的监管“工具”和“措施”描绘为基于自然监管的第(2)–(6)层。


层次结构中的第二低层称为(2)基础结构调节,是诸如机械蒸汽调节器之类的人工制品的关联。监管者所依赖的基础设施的特征可以加强相关社会经济系统的积极方面,并抑制消极方面。这些功能可能是人工制品设计的副产品,也可能是在其上进行复古安装或在其中进行设计的。在IT领域,基础设施监管的一种流行表达是“西海岸法规”。计算机和网络体系结构(包括标准和协议)以及基础结构(包括硬件和软件)存在一系列限制。在人工智能的背景下,“西海岸法规”可以采用的一种相关形式是在机器人中嵌入类似于“机器人法则”的东西。


监管层级的最上层(6)正式法规通过法规行使议会的权力。至少在普通法国家中,法规以判例法加以补充,以阐明法律的适用范围。正式监管要求遵守以或多或少特定术语表述的要求,并辅以制裁和执行权。Lessig通过将正式法规称为“东海岸法规”,强调了基础设施和法律措施之间的区别。


对法律的狭义解释是,它是政治上公认的权威强加的规则。另一方面,对法律的广泛解释可以识别更广泛的现象,包括授权立法(例如法规);对国家具有约束力的条约;法院和法庭作出的影响以后决定的决定;由私人实体制定但由国家认可和执行的法律,特别是通过合同和可执行的承诺;以及诸如谅解备忘录(MOU)和正式指导说明之类的准法律文书。


正式监管通常涉及专门的政府机构或议会任命人行使权力和资源,以执行法律并为监管者和受益人提供指导。分配给监管机构的法律权力和资源可能是有限的,在这种情况下,该制度被适当地描述为伪监管,而该实体则仅仅是监督机构而不是监管机构。


各种形式的AI可能在现有机构或被任命者的范围之内,例如自动驾驶汽车,遥控飞机和具有数据处理功能的医疗植入物通常就是这种情况。但是,一般而言,就AI而言,在AI时代启动六十年后,全球主要司法管辖区尚未建立新的监管机构或适当授权现有监管机构。各种组织已经提出了原则,但是大多数原则都是抱负,而不是义务。


形式上的监管施加了相当大的约束和成本。中间层(3)–(5)试图减少正式监管中固有的相当大的约束和冒充。这些层中的最低层是(3)组织自我监管,包括内部行为准则和“客户宪章”,以及与诸如“商业道德”和“企业社会责任”等表达方式相关的自我约束。在本系列的第二篇文章中指出,法律要求公司董事要在所有其他利益之前追求公司利益。因此,从所谓的受益者的角度来看,组织自我监管几乎总是无效的,甚至在保护组织本身免受不良宣传方面也常常没有效果,这不足为奇,甚至可以预料。


层次结构的中点是(4)行业部门自律。公司出于各种原因聚集在一起,其中一些可能会损害其他各方,例如串通投标和定价。但是,行业协会的活动能够为他人及其成员带来利益。特别是,协作的基础架构方法可以改善服务,降低该行业客户的成本,甚至可以嵌入基础设施监管机制。


也可以说,如果规范由行业部门中负责任的公司颁布,那么该行业“牛仔”的不当行为将被突出。一个行业内的行为准则,实践准则,道德准则以及谅解备忘录(MoU)被认为具有甚至可能具有一定的监管作用。但是实际上,行业准则对公司行为的影响很少。很少有这样的《守则》足够严格以保护其他当事方的利益,缺乏执法会破坏这一努力。越来越多的边际供应商会忽略他们,负责任的公司会感到竞争的压力并减少了他们对他们的承诺。结果,这些守则通常是伪装,掩盖了缺乏保障措施,从而拖延了实际的监管措施。在人工智能领域,急于应对监管威胁的行业联盟例子包括FLI,ITIC和PoAI。


就其性质而言,在贸易惯例/反垄断/反卡特尔法律的影响下,行业自我监管机制通常是不具有约束力和不可执行的。此外,它们受到监管机构的博弈,以降低其有效性和/或繁琐性,或产生附带优势,例如锁定竞争对手或锁定客户。结果,这两个自我调节层几乎完全无效。


术语(5a)“元监管”的含义是“政府监管的行业自我监管”。很难找到元监管的积极范例。同时,出现了“(5b)共同监管”的概念。广义而言,共同监管方法涉及建立监管框架但仔细授权细节的立法。关键要素是权限,义务,监管计划要满足的一般原则,制裁和执行机制。详细的义务是通过利益相关者倡导者之间的协商过程制定的。结果是可执行的《守则》,阐明并必须与相关立法中表达的一般原则保持一致。参与者必须至少包括监管机构,被监管者和该法规的预期受益者,并且流程必须反映各方的需求,而不是受到机构和市场力量的扭曲。有意义的制裁及其执行是这种性质的计划的内在要素。不幸的是,很难找到有效的共同监管实例。原因之一是,开发过程通常会排斥或扼杀实力较弱的利益相关者的利益。另一个是,这些术语通常没有被有意义地执行,甚至可能无法执行。


本节概述了监管干预可以采取的各种形式。在实践中,许多监管制度采用某一种主要形式,但也包含其他层面的要素:“在大多数情况下,使用多种而非单一的政策工具以及更广泛的监管参与者,将产生更好的监管。下一节简要回顾了各种监管形式的特征,并评估了每种形式的适用性,以实现对AI技术以及基于AI的人工制品和系统的控制。


监管指标



以上确定的每种监管形式在任何特定情况下都可能发挥某些作用。本节考虑了各种关键因素,这些因素在某种程度上有利于每种形式的应用,或者不利于其在实现对AI的控制以及确保实施适当的保护措施以抵御之前确定的危害方面的作用:伪造自主权,不当行为关于数据和推理过程的假设,推理过程的不透明性和不负责任性。


该分析考虑了表1中提出的用于设计和评估监管制度的标准。特别强调流程的透明性,利益相关者利益的反映,监管机制的制定以及执法行动。


在许多情况下,自然控制可能是有效的,或至少做出了重大贡献。例如,由于飞机失事而引起的公众恐惧的周期性痉挛可能足以阻止自主飞行的发展。但是,在公众不了解该技术的操作,社会或社会技术系统复杂或晦涩的情况下,或者一个或几个强大的参与者在该领域占主导地位,并可以对其进行调整以适应自己的需求的情况下,自然控制不太可能是适当的。人工智能行业的特征使得自然控制

不合适。


在IT领域,基础设施监管通常会发挥作用。人工智能提供了进一步改进的潜力,包括通过当前的RegTech运动(Clarke,2018a)。但是,在涉及重大价值冲突,上下文可变性,突发事件和快速变化的情况下,此类机制可能至少是最有效的。AI行业的特征与优先考虑和实施基础设施的特征格格不入。例如,即使是价格适中的无人机也缺乏通信通道冗余和冲突检测功能。基础设施监管在生物医学工程中可能是最有效的,因为预防原则已经被嵌入其中,概念和设计之后是经过仔细和分级的试验和测试(Robertson等,2019)。


只有在预期的受益人具有相当大的权力时,组织自我监管才能发挥很大作用,或者受到昂贵且不便的正式监管的风险导致被监管者建立保护并实际应用保护。行业自我监管只有在一方面存在强大的行业结构,并有强烈的动机激励所有行业参与者成为成员的情况下才能有效。但是,另一方面,其他参与者也足够强大,可以确保该计划为预期的受益人带来好处。除非不法之徒感到痛苦,否则这些计划将缺乏效力和信誉。AI包含多种技术,这些技术体现在许多人工制品中,并嵌入到许多系统中,这些系统需要许多应用程序。其中一些至少具有一定程度的自治性。所有这些都是复杂而晦涩的,即使是高管,营销人员和决策者也不太可能理解,更不用说受影响的公众了。人工智能是动态的。在许多情况下,活跃在AI中的实体很小,不稳定,变化迅速且寿命短。没有强大的产业结构。组织和行业的自我监管似乎不太可能提供有效的保护,以抵御人工智能所包含的重大威胁。


元监管只有在对组织和行业自我监管机制提出全面要求的前提下才有效。似乎不太可能出现许多积极的范例,而且技术和行业的复杂性使得AI不太可能成为其应用的合适领域。


正式的监管可以充分发挥法律效力。但是,设计,起草和辩论的过程受到政治力量的影响,而这些力量反过来又受到强大声音的影响,这些声音通常在幕后起作用,因此其影响被掩盖并且难以察觉,很难克服。结果,许多正式的监管方案都违反了上面表1中提出的许多标准。在另一个极端,一些正式的监管安排过于繁琐和昂贵,而且大多数都不灵活。由于强有力的声音和政治进程的介入,所有人都在适应不断变化的环境方面行动缓慢且富有挑战性。复杂性使得议会中有关AI的连贯讨论的可能性很小。因此,试图建立正式法规的人很可能创建或发布既繁琐又无效的法规。但是,可能会出现例外情况,例如禁止完全自主的乘客飞行。


另一方面,共同监管为向受益人提供价值提供了真实的前景。必须有一个触发因素,例如热心,强大而有说服力的部长,或特定部门内部或附近的利益联盟。一个具有高度代表性的论坛必须走到一起,并商讨可行的设计。有关政府,政府机构和议会必须承担并维持承诺,并且不得屈服于既得利益。必须赋予监管者权力和资源,并在这种计划不可避免的变迁中为其提供支持。下一节将进一步阐明这一主张。


AI的共同监管框架



在本文的第3和第4节中,表明了由于AI的重大影响以及自然控制和现行法律的不足,存在进行监管干预的前提条件。此外,还可能对个人和社会造成重大损害,并通过对技术和应用技术的组织造成声誉损害,对经济也造成损害。因此,预防原则是适用的,并且必须在开发之前而不是在开发和部署之后进行监管。


上一节得出结论,最有效的监管形式是共同监管,与某些自然控制和基础设施特征以及一些正式法律(例如禁止全自动客机)结合使用。在组织应用多方利益相关者风险管理流程和本系列第二篇文章中提出的50条原则的程度上,组织和行业的自我监管可能会做出重大贡献。


本节概述了可在整个AI级别应用的监管方案。但是,各种形式的AI之间的多样性使得将主动性划分为多个特定于技术的流将具有相当大的优势。


在设计一个或多个AI监管方案时,关键的问题是要监管什么。AI的一般概念是分散的,本身并不是合适的目标。该系列的第一篇文章认为,互补情报和智力将是更合适的焦点。


然而,就活动类别而言,通常对实体类别施加监管要求。因此,一种适当的调节AI的方法是应用该系列第二篇文章中的区别,并对分别涉及AI技术,人工制品,系统的研究,发明,创新,传播和应用的实体施加要求和已安装的系统。


该计划的核心是一个全面的立法框架。


表二:全面的共同监管框架

在这种共同监管方案中,有各种实体可以做出贡献的范围。


人工智能供应链中各个环节的公司都可以通过高管人员的智力投入,资源投入,人员培养,业务流程适应,控制和审计机制来解决问题。这些活动可以确保建立,运行和调整符合标准的内部投诉处理流程,以及通过守则谈判机构和流程与其他方式与供应链中的其他公司以及与其他利益相关者进行沟通。


行业协会可以充当各自部门内活动的联络点。这可能包括针对特定行业内组织的具体指导;成员公司背后的二级投诉流程;实施保护技术的基础设施;以及提高认识和教育措施。


需要授权和鼓励个人代表自己采取适当的行动。仅当采取提高意识和教育措施,在公司和行业协会一级建立投诉程序(相对非正式),并且通过监管机构建立投诉,强制执行和损害赔偿程序(相对非正式)时,这才可行。在某些文化中,特别是在美国文化中,自力更生,而在另一些文化中,相应的监管机构更大,功能更强大且资金更充裕。


问题仍然是,在广泛的AI领域中应该关注哪些技术和应用。在该系列的第一篇文章中,确定了四种示例性技术。其中,机器人技术,尤其是在公共场所和运动中的机器人,似乎是早期监管的主要竞争者。类似地,需要与机器学习技术(例如神经网络)相关的动作。该范围将被有用地定义为涵盖其他AI衍生技术,例如基于规则的专家系统,并且需要考虑为什么整个数据分析不应服从相同的监管制度。这种性质的方案很容易为医疗植入物领域开发,然后适用于其他形式的电子化。


本系列的第二篇论文介绍了50项负责任的AI原则,这些原则按10个主题进行了组织。它们适合作为表达准则需要遵守的要求的模板,也可以作为评估以其他方式开发的草案的清单。一般而言,在数据分析尤其是神经网络的情况下,这些原则得到了一套负责任的数据分析应用准则的补充(Clarke,2018b)。


结论



除非技术,人工制品,系统和应用程序带来的重大公共风险受到适当形式的公共风险管理,否则人工智能无法兑现其诺言。一系列替代监管方法是可行的。我们认为,共同监管方法最适用于该问题。已经提出了该建议的明确表达。


除非AI激起解决这些风险的建设性行动,否则公开谈论AI固有的风险是没有价值的。同时,有前景的技术的拥护者面临着公众和机构强烈反对其创新的可能性。因此,进行可靠的公共流程符合AI的所有利益相关者的利益,从而导致制定可靠的监管制度来应对并被视为应对公共风险,并且在AI行业中承担的责任不至于合理。本文提出的框架为此类流程和制度提供了蓝图。


以下为部分报告截图


……

获取完整论文,

请后台回复“AI监管”

获取下载链接




END


编译/邓宇杰

责编/张谦

【延伸阅读】



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存