查看原文
其他

莫晓宇 | 人工智能的多元刑事治理:理论建构与路径选择

莫晓宇 厦门大学学报哲社版
2024-09-04

点击蓝字关注我们


人工智能的多元刑事治理:

理论建构与路径选择


推荐语

在“未来已来”的人工智能时代,传统刑事治理体系已难以应对该全新技术样态的理论挑战与实践困境,故如何构建新的理论范式与实践路径是一个亟待讨论的问题。本文试图通过对既有理论与实践困境的分析,提出对人工智能进行多元理念、多元结构、多元主体、多元形式、多元方法的理论重塑,并推进分类分级治理、预防治理、合作治理、复合治理、全周期治理等多元刑事治理模式安排,从而调试出人工智能刑事治理的最优解。


作者简介

莫晓宇,四川大学法学院副教授、法学博士,主要从事中国刑法学、刑事政策学研究。先后主持国家社会科学基金一项、作为主研人员参与国家社科基金重点项目一项、司法部重点课题一项,在《中外法学》《法学评论》《法律科学》《中国刑事法杂志》等学术类刊物上发表文章二十余篇,出版学术专著两部。


摘要:伴随技术迭代、产业融合与社会渗透,人工智能催生出了刑事治理的强烈需求。以个体法益保护为主线、以事后惩治为主张、以实害结果为主因、以国家垄断刑法规制为主轴的传统刑事治理体系,已经难以充分应对人工智能时代的理论挑战与实践困境。合理吸收“一元—多元”“封闭—开放”的治理诉求,进行多元理念、多元结构、多元主体、多元形式、多元方法的理论解构与重塑,能够为更具包容性与开放性的刑事治理方案提供理论支撑。在具体的路径选择上,我们有必要推进和展开分类分级治理、预防治理、合作治理、复合治理、全周期治理等多元刑事治理实践,从而合理地调试出人工智能刑事治理的最优决策。

关键词:人工智能;刑事治理;合作治理;预防刑法;全周期治理



一、问题的提出

人工智能正以第四次工业革命(The Fourth Industrial Revolution)的姿态,日益展现出对技术赋能、产业发展、国家战略的深度影响。2021年3月,《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》提出:“要瞄准人工智能……等前沿领域,实施一批具有前瞻性、战略性重大科技项目,推动数字经济健康发展。”如今,人机交互(HCI)、增强学习(RL)、计算机视觉(CV)、自然语言处理(NLP)、内容生成(AIGC)等人工智能技术方向,正在不断地塑造着智能制造、智慧教育、智慧医疗、智慧城市、自动驾驶、数字政府等新型应用场景。

当然,“唱衰”人工智能的声音亦从未停歇。虽然经历了周期性的“人工智能寒冬”(AI winters),但人工智能研究和应用领域的不断延伸,也引爆了一个又一个的技术浪潮。例如,ChatGPT(GPT-4)、Bing Chat等大语言模型在2022—2023年所引发的轰动效应,不仅对知识的定义、知识的生产方式产生了巨大影响,还被视为迈向通用人工智能的指向标。这表明,对人工智能技术瓶颈的预测或许并不可信,反而由此引发的对于人工智能风险的忽视,可能会产生更大的、连锁式的消极影响。

的确,在享受人工智能技术红利的同时,相应的技术风险、应用风险等也呈现出叠加性、不可预测性、不可解释性、弥散性等特征,并且已经远远超出当前技术手段的控制范围。然而,无论是人工智能专门立法抑或交通、医疗等行业立法,都处于利益协调、部门分割、资本抗衡的反复拉锯之中,短时期内难以形成统一、具体的前置立法。因此,在“安全作为人工智能时代的核心法价值”的治理前提下,人工智能的法律治理或许会与个人信息保护一样呈现出“刑法先行”的发展脉络。但以最后性为精神内核、事后惩治为基本范式的刑事治理体系,注定难以适应“智能刑事风险的不确信和结果发展的漫长过程”这样的治理形态。这也意味着,我们应摆脱传统刑法僵化的治理逻辑,转而确立起多元理念、多元结构、多元主体、多元形式、多元方法为一体的理论框架,并在此基础上进一步探索新型的刑事治理路径,从而合理地调试出人工智能刑事治理的最优决策。


二、人工智能多元刑事治理的背景考察

刑事治理,指依靠刑事机制实现对社会事务的处理。在此,“刑事机制”不仅包括刑事立法,还包括刑事司法、刑事政策等内容,“社会事务”也不限于“犯罪”,还涵盖通过处理犯罪能够实现管控的其他事务。如此,刑事治理不应是一成不变的理论构造,而要随着社会的转型丰富其知识内涵和规范内容,并在此过程中不断进行“回应性”的调整。但是,既有的理论系统也会依赖基本的理念设定、体系结构、归责方法等维持其固有的治理逻辑与惩治惯性,因而不可避免地会产生出一定的滞后性。对此,我们需要通过对传统刑事治理向多元刑事治理的转换分析,在原有的立场设定中发现应对人工智能风险的缺陷与不足,进而透过“一元—多元”“封闭—开放”的理论变通与突破,提供多样化的应对思路和举措,以确保人工智能始终行进于“安全、可靠、可控”的法治轨道。

 

(一)传统刑事治理的逻辑脉络与时代局限


基于对刑法立法、司法、规范、解释、案例、学理等线索的归纳整理,能够分析得出传统刑事治理的逻辑脉络。而经由这些基本逻辑构成的理论“侧写”,既显示了对于古典刑法的传承坚守,也同样展现了其在人工智能时代的治理局限。

第一,以个体法益保护为主线。传统刑事治理以服务于个体法益的保护为主线,并通过个体法益的侵害反馈刑事治理的需求。以个体法益为中心的法益谱系有助于避免刑事治理对个人自由的侵蚀。但这一主线忽视了实现个人法益的共同基础,如由制度、秩序所构建起的社会运转状态。进入人工智能时代,如在自动驾驶领域,为了解决消费者自身利益和最大社会安全之间的冲突,应当要求所有自动驾驶车辆都符合某些道德编程标准。道德编程标准将限制制造商的道德编程选项,以确保自动驾驶车辆对所有公众尽可能有益。这种人工智能的道德编程标准就不属于具体的个体法益,而是一种法益的集合形式(集体法益)。

第二,以事后惩治为主张。传统刑事治理以进行事后惩治为主张,并将因果关系的确认作为归责的基础与依据。但该主张在今天已经越来越缺乏说服力,它不仅无力应对巨型风险、新型风险的肆虐,也无法承载“国家应当构建合理的体制和制度,把人类受到的安全威胁降到最小”的义务清单。进入人工智能时代,单一的事后惩治主张更难以为继,这体现在:一方面,由于人与人工智能之间的相互作用交织在一起,很难证明因果关系;另一方面,人工智能时代的技术风险具有呈指数级扩大和在全社会扩散的危险性,事后的惩治也只能进行消极的、被动的防御,而无法完成减少或避免风险的任务。

第三,以实害结果为主因。传统刑事治理以实害结果的发生为主因,相应地,对于实害结果(客观)与针对实害结果的罪过(主观)的否定性评价就成为刑法规制的目的与使命。但如此限定也导致刑法难以在整体上调控实害结果的发生流程,而且通常“不得不调整固有的释义学基础,如采取宽松解释来扩大间接故意的适用可能性,或者是松绑因果关系认定标准来因应”,这也从实质上掏空了古典刑法的精神内核。进入人工智能时代,“一个功能完备的算法永远不会有可预见的结果,因为它是不断变化的。如果结果是不可预见的,与该结果相关的任何特定损害风险也是不可预见的”,这足以说明,不能完全寄希望于在主、客观相统一的范畴内进行刑事规制。

第四,以国家垄断刑法规制为主轴。传统刑事治理以国家垄断刑法的规制为主轴,即刑法的制定和实施只能由国家作为唯一主体。由此也使得刑法的功能被定位为惩治法和威慑法,刑法的话语体系被呈现为打击和教育。进入人工智能时代,监管主体的多元化、规范内容的专业化、控制能力的分散化,都表明国家无法保持其垄断性的主导地位。其中,尤为需要注意的是人工智能公司,“有两个关键因素确保了人工智能公司强大的数字实力和主导地位:数据收集(data collection)和资金(money)”。因而,如何拓展规制主体、扩充规制内容、聚合规制力量就应当成为人工智能刑事治理所必须面对的时代课题。

 

(二)多元刑事治理的实践需求与目标诉求


以个体法益保护、事后惩治、实害结果、国家垄断刑法规制为核心元素的传统刑事治理体系,实质上是将维护系统自身的和洽性、保持系统内在的封闭性视为刑法谦抑性的当然结果。但这也是一种自我设限的体现,尤其是面对人工智能影响逐渐从个体层面趋向群体化的现实,被动性地强调事后治理、最后治理只会丧失引导、控制人工智能风险的机会。基于此,我们应当在厘清传统刑事治理的逻辑脉络与时代局限的基础上,直面人工智能多元刑事治理的实践需求,并全面塑构其目标诉求。

第一,“个体法益—集体法益(制度法益)”的多元主线。对于人工智能的刑事治理而言,个体法益的侵害反馈只能完成局部性的治理,无法抵御整体性、系统性的风险治理需求。正因此,还应当更多地利用行政管理进行集体行动的反馈,并将此形成的集体法益纳入刑法的保护范围。对于这样的集体法益,首要的就是人工智能算法的刑事治理,如对算法备案制度、算法审计制度等的保护。

第二,“事后惩治—事前预防”的多元主张。对于人工智能的刑事治理而言,单一的事后惩治只能作为“兜底性”的治理主张,还亟待发展“事前预防”的刑事治理手段。由于不具有可解释性的人工智能不能自我答责,自然也很难通过责任的归咎防范刑事风险。这就要求在事前布局人工智能技术风险的现实化阻断手段,并通过调控“技术风险—刑事风险”的转化过程优化人工智能的刑事治理。尤其是对于高风险人工智能的应用,更应当选取事前预防的方式进行刑事治理。

第三,“实害结果—抽象危险”的多元主因。对于人工智能的刑事治理而言,单一的实害结果同样只能作为“兜底性”的治理主因,还应当将危险犯的设置纳入刑事治理方案。例如,瑕疵智能产品的危害结果产生具有一定的间隔性和潜伏期,对于明显不符合人工智能产品的国家标准和行业标准的,应当被视为一种抽象危险。而且,“随着人机交互的加强,相关的风险也将增加,其中许多对人类构成威胁”,这也意味着至少在某些情境下,刑法的介入必须提前到危险的出现甚至形成阶段。

第四,“国家垄断—协同治理”的多元主轴。对于人工智能的刑事治理而言,尽管国家垄断刑法规制依然是最基础和最具强制力的手段,但高度复杂的因果判断、极度专业的证据证明以及严重滞后的风险规制,也都导致其缺乏足够的刑事治理预期。因而,应逐步打破国家垄断刑法规制的桎梏,导入多元化的主体进行协同治理。如此一来,就可以根据多元主体在人工智能技术发展的不同阶段、不同场景、不同载体所具有的规制能力,与刑事治理相结合而组成层次化、差异化、多元化的刑事治理体系。

人工智能多元刑事治理从“一元”到“多元”的体系进化,所强调的不是对传统刑事治理的否定,而是希望通过“封闭”到“开放”的系统转变,提供更具包容性与开放性的刑法规制方案。在变动不居的人工智能时代,抛开法律强制的彻底贯彻,通过寻求多元对话,反而可能形成接受更高的规制结果。当然,这一多元刑事治理的具体展开,还有赖于对其理论的解构与重塑,从而为全新背景下的刑事治理方案提供理论支撑。


三、人工智能多元刑事治理的理论解构

透过人工智能多元刑事治理的背景考察,所展现的正是传统刑事治理下责任归咎存在的理论禁锢,所造成的后果就是“围绕责任问题的普遍模糊性阻碍了人工智能的进一步发展以及建立其利用的综合标准,从而造成了一种处境,即尽管人工智能系统具有革命性的影响,但都不愿参与利用人工智能系统”。因此,要想彻底激发人工智能的技术发展潜力,还需在充分理解多元刑事治理实践需求和目标诉求的基础上,进一步解构并重塑人工智能多元刑事治理的理论基础。

 

(一)人工智能刑事治理的多元理念


“人工智能是作为人类的替代品而创造的,它是一种具有嵌入式学习和分析能力的精巧机器,能够适应现实生活并尽可能准确地执行曾经由人类完成的工作。”对人工智能的这一简单定义,展示了其鲜明的替代特征。而通过对替代特征的双重考察,还能够提取出关系人工智能刑事治理理念的第一组变量因素——利用与保护。一方面是替代的价值性,这决定了人工智能刑事治理的逻辑起点——“利用”。换言之,人工智能的刑事治理在于维护对人工智能替代价值的合理“利用”,而非通过刑法严格地限制人工智能的研发、生产与使用。另一方面是替代的遮蔽性,这预示了人工智能刑事治理的实践难点——“保护”。换言之,人工智能时代的法益保护,需要“刺破替代的面纱”,在人工智能的替代性中确定“人类对结果衍生过程的支配力”,从而在人工智能的研发、生产与使用环节寻求对具有支配力的主体的规制。

“不使人类丧失对智能机器人的控制,不发生系统性风险,是发展人工智能技术的底线要求。”这一底线要求警示了关系人工智能刑事治理理念的另一组变量因素——安全与发展。人工智能所引发的技术风险带来了更高的安全风险,因而确有必要提供充足的刑法规范供给,以实现安全保障机能。但是,政府的干预也可能会扼杀进步,限制人工智能技术的发展,因为它通常只解决目前合理预期的问题,而不考虑未来十年或二十年的潜在用途。由此造成的后果是,过度的安全保障“绑架”了技术发展,从而丧失了人工智能时代的发展机遇。

事实上,这种“利用与保护”“安全与发展”之间的冲突,正是人工智能时代的真实写照,也是人工智能刑事治理所面临的最大困境。“基于利益和风险之间的比例关系,技术所带来的利益越大,社会所要承受的风险也就越广。”如此,人工智能刑事治理的多元理念就能够打破单一安全或保护的理论限定,融合利用与保护、安全与发展的双重价值,进而在刑事政策诉求上建立新的风险分配机制,在规范安排上建立新的责任分配机制,并以此确立和塑造面向人工智能时代的新型刑事治理模式。

 

(二)人工智能刑事治理的多元结构


多元理念的形成,促进了不同治理价值与治理元素的动态交互,也因此推动了人工智能的刑事治理走向内部治理与外部治理相结合的制度结构多元化、规制与激励相结合的知识结构多元化、消极惩治与积极预防相结合的规范结构多元化。

其一,内部治理与外部治理相结合。人工智能刑事治理的制度结构需要摒弃单一的外部治理,即直接性地进行刑法规制,因此需要更多地添加“内部治理+外部治理”的层次化治理内容。受当前人工智能技术发展水平的限制,刑法并不会苛责研发与生产等主体过重的注意义务,即绝对的禁止危险发生,但有必要课予一定的危险阻断或改正义务,以促使其内部主动地消除技术风险。

其二,规制与激励相结合。人工智能刑事治理的知识结构需要摒弃单一的规制性,即只强调义务与责任,因此需要更多地容纳“规制+激励”的话语体系。规制与激励相容,不仅有助于形成多元主体的治理合力,也能够弱化人工智能技术保护(如专利保护、商业秘密保护等)对执法活动的阻碍。例如,对人工智能产品的重大致损行为,可以考虑“建立一种披露机制(disclosure mechanism),并提供有限的保护,同时促进系统和流程信息的披露,以有效评估人工智能产品的安全性和公平性”。作为算法披露的激励,可以考虑给予一定的刑事责任减免或出罪对待,以此作为提高算法治理透明度以及持续监管算法改进的有效举措。

其三,消极惩治与积极预防相结合。人工智能刑事治理的规范结构需要摒弃单一的消极惩治性,即重复实害犯或结果犯的规范形式,因此需要更多地塑造“消极惩治+积极预防”的性质。“人类难以对人工智能进行全面控制,使其成为潜在的公共风险源”,这预示着人工智能的刑事治理将从以“法益损害”为前提的消极惩治角色,转变为以“法益损害可能”为根据的积极预防角色,从而吸收危险犯、行为犯、不作为犯、预备犯、帮助行为实行化等法益保护前置的规范形式。

“我们不应忽视这样一个事实,即法律框架既可以促进人工智能技术的发展,也可以阻碍它的发展。目前的法律框架就在刑事责任方面存在着不确定性。”而通过制度结构、知识结构与规范结构的多元化转变,就可以为人工智能刑事治理的法律框架提供更具包容性和多样性的选择,亦由此保证了刑事责任的确定性。而这,也正是人工智能刑事治理多元结构的优势所在。

 

(三)人工智能刑事治理的多元主体


人工智能技术最具挑战性的方面之一是其适应性和不可预测性,这无疑需要法律上的彻底改革。而在评估一项技术的类型和不可预测性水平方面,没有人比设计者(designers)和实施者(implementers)处于更有利的地位。这表明,人工智能的刑事治理需要引入多元主体,尤其是具有技术优势和数据优势地位的参与者。这样,就能够打破纯粹的国家垄断刑事规制,形成多元主体间的合作治理、充分治理,从而在整体上提升刑事治理的能力与效率。

一方面,人工智能刑事治理的多元主体,源自参与主体的技术治理能力。例如,针对ChatGPT生成内容所带来的版权风险,技术措施(如隐藏水印技术等)有利于降低版权的保护成本并提高效率。其实,对于大型人工智能企业而言,它们往往具有从技术治理理念到技术治理准则等一系列完整的技术治理体系,这意味着它们在刑事治理的过程中实质上已经成为“承担安全保护义务的‘公共责任公司’”。例如,谷歌、微软、IBM、旷视、腾讯等企业早就推出了其人工智能治理准则,并形成了相应部门机构推动落实治理责任。而且,企业也在积极探索以实践可信为核心理念的人工智能治理模型,以帮助人工智能产品在研发过程中提升安全性、鲁棒性、可解释性、公平等可信能力。

另一方面,人工智能刑事治理的多元主体,还源自敏捷治理的需要。在人工智能技术的迭代发展态势下,计划性、集中性的监管难以应对不确定的治理环境与多样化的应用场景,因而更需要“组织以快速迭代的方式重新设计公共产品和服务,满足公众不断变化的需求”。敏捷治理通过及时的反馈与资源配置,建构了更具持续性的风险沟通系统,进而在多元主体的合作中有效避免了人工智能技术风险的扩散。

 

(四)人工智能刑事治理的多元形式


人工智能实体(如机器人)的进化是随着自主甚至认知特征的发展而及时进行的,比如从经验中学习并具备独立决定的能力,从而将它们越来越多地进化为与环境交互甚至能显著改变环境的代理。为有效应对人工智能的自主性、独立性特征对归责的影响,我们有必要在理论上设定两条平行的规制路线:第一,寻求对人工智能具有支配能力主体的刑事规制,即上文所述的“刺破替代的面纱”的形式;第二,赋予人工智能刑事主体资格,进而通过特殊刑罚措施予以制裁。

对人工智能具有支配能力主体的刑事规制,其内在的法理依据在于“只有人工智能犯罪归责于作为保证人的‘自然人—法人’,才能真正实现有效归责”。一方面,就技术逻辑而言,“如果将算法视为参与者是危险的,因为它忽略了一个角色,即人类及其所在的机构实际上首先要对数据选择和编程选择负责,而这些选择创造了我们今天所说的人工智能”。因此,忽视对人工智能具有支配能力主体的规制是不明智的。另一方面,就刑事政策而言,要求人工智能具有支配能力的参与主体负担刑事责任,将更有助于其谨慎地从事人工智能技术产业。

将人工智能作为法定犯罪主体的观点,具有一定的理论基础:(1)它不是物理人,而是电子人(人格);(2)理智,这意味着在犯罪时有机会意识到其行为(不作为)并加以管理。但是,是否要承认人工智能的犯罪主体资格,更大程度上还需受到刑事政策的制约。“独立人工智能的刑事责任问题是双重的,一方面涉及构成人工智能犯罪的可能性问题,另一方面涉及制裁人工智能的可能性或意义问题。”很显然,所谓删除数据、修改程序等新型刑罚措施,并不能达到一般预防的刑罚效果。而且,这还将造成设计者、程序员、制造商免于刑事责任的结果,而将人工智能造成的伤害成本转移给消费者和公众。因此,至少就目前而言,不适宜承认人工智能的犯罪主体资格。但是,不妨考虑选择一种调和性的方案,即考虑到人工智能行为的危险性,可以对其采取有效的保安措施进行防范。质言之,可以参照刑法上关于处置违禁物的思路,将人工智能视为一种特殊的“物品”,从而纳入对物的保安处分中。

概括来看,人工智能刑事治理的多元形式,可以涵盖“对人工智能具有支配能力的对象的刑事规制”与“对于人工智能的保安处分”两大类别。“对人工智能具有支配能力的对象的刑事规制”根据人工智能的支配与参与又可以细分为研发者、制造者、所有者、使用者等,是主要的刑事治理形式,“对于人工智能的保安处分”可以作为一种辅助形式或补充形式,以周延人工智能的刑事治理。

 

(五)人工智能刑事治理的多元方法


人工智能本身所具有的风险多样化、复杂化、场景化等表现,都决定了其很难在同一治理逻辑下完成刑事规制。在此,笔者尝试根据“本体风险—外溢风险—应用风险”的简单归类,从中提取可供刑事规制的关键要素,以此阐释刑事治理的多元方法。

首先是人工智能的“本体风险”。“人工智能系统是一个基于算法的复杂计算机程序,他们的行为技能是通过机器学习(深度学习)制定的客观标准获得的。”机器学习,则是可以自动建立分析模型的一种数据分析方法。依据上述技术原理,人工智能的“本体风险”实质上来源于算法与数据这两个人工智能系统的核心要素,对于算法侵害、算法歧视、算法操纵以及数据滥用、数据歧视、数据欺诈等做法,都应纳入算法风险或数据风险的范畴内予以刑事规制。

其次是人工智能的“外溢风险”。随着人工智能连通性的增加,与网络安全和隐私有关的风险也在增加与外溢。例如,对自动驾驶汽车来自车内、外部或个人设备的多个数据点进行分组,可以增强对感知背景的理解,但这些信息也可能被第三方窃取,或者受到网络黑客的攻击,从而产生隐私泄露与网络安全的风险。对此,也应在个人信息犯罪或网络犯罪等范畴内予以刑事规制。

最后是人工智能的“应用风险”。人工智能在不同应用场景的使用,会因与特定应用场景的结合而产生新的风险类型。例如,自动驾驶汽车产生的交通安全风险与产品安全风险、手术机器人产生的医疗安全风险以及人工智能基因编辑产生的生命伦理风险等,都需要结合具体的应用场景与风险类型分别予以刑事规制。

但是,刑事治理的多元方法并非只是简单地拆解人工智能的风险类型或元素,而是希望在多元方法的不断交叉、融合、协调中达到刑事治理的最佳状态。


四、人工智能多元刑事治理的实现路径

社会秩序和法治的维护,要求刑法对配备人工智能系统的犯罪提供适当的解决方案,特别是考虑到未来可能出现更强大、更自主的人工智能。毫无疑问,这里解决方案的“适当”与否在很大程度上取决于人工智能刑事治理模式的多元性,这不仅是多元刑事治理理论的当然结论,也符合现代刑事治理日益走向灵活性、机动性、适应性的基本规律。为此,笔者立足人工智能时代的背景变迁,根据多元理念、多元结构、多元主体、多元形式、多元方法为一体的理论框架,就多元刑事治理的路径选择作如下思考。

 

(一)构设与人工智能差异化风险程度相匹配的分类分级刑事治理路径


实际上,多元化的实质就在于差异化与个别化。因此,我们应当首先从人工智能的技术事实出发,解读不同类别、级别人工智能的技术差异与风险差异,进而有针对性地设计其刑事治理方案。

依据人工智能技术发展的阶段性差异,可以将其分为弱人工智能(Artificial Narrow Intelligence, ANI)、通用人工智能(Artificial General Intelligence, AGI)、超级人工智能(Artificial Superintelligence,ASI)。其中,弱人工智能是指专注于狭义的技能组合的人工智能。虽然这些机器给出了它们的反应,但却不了解它们是如何和为什么达到这个结果的。也就是说,它们为答案而优化,而不理解因果关系。通用人工智能要求机器的智能可以成功地完成人类可以完成的任何智力任务。超级人工智能,即机器拥有的智能甚至超过了最聪明和最有能力的人类或通用人工智能,几乎在每个领域都是如此,包括科学创造力、一般智慧和社会技能。基于对它们技术差异的规范性阐释,可以形成差异化的刑事治理格局:(1)对于弱人工智能而言,其刑事责任的基础在于工具性,人工智能所实施的行为是程序员或用户的行为,因而也将由他们承担人工智能致损的刑事责任。例如辅助驾驶汽车造成交通事故的,一般应由驾驶人承担刑事责任。(2)对于通用人工智能或超级人工智能而言,其刑事责任的基础在于自主性,因而除追究产品的刑事责任外,负有预见义务或监督义务的主体也应承担刑事责任。例如无人驾驶汽车致损的,一般应由承担安全监管义务的制造商承担刑事责任。

依据人工智能技术风险的程度性差异,可以借鉴欧盟《人工智能法案(EU AI Act)》的规定,将其分为不可接受的风险(unacceptable risk)、高风险(high risk)、有限风险(limited risk)、最小风险(minimal risk)。基于对它们技术风险的程度性差异的规范性阐释,也可以形成差异化的刑事治理格局:(1)不可接受风险的人工智能,如鼓励未成年人从事危险行为,会严重威胁人类的安全、生命或基本权利,因而应当通过刑法严格禁止其研发与应用,可以考虑设置非法研发、提供、使用人工智能的犯罪,并将相关的预备行为予以实行化处置、帮助行为予以正犯化处置;(2)高风险的人工智能,如机器人辅助手术,涉及人类健康、安全、基础权利等领域,需要通过刑法规制产品不符合投放市场监管要求的犯罪、产品安全事故犯罪以及安全管理犯罪等;(3)有限风险和最小风险的人工智能,如聊天机器人,需满足一定的产品透明度义务、安全标准等要求,可通过产品犯罪等予以规制。

需要注意的是,无论是分级治理还是分类治理,都依赖于特定机构对“级”与“类”的划分。例如,欧盟《人工智能法案》赋予欧盟委员会评估人工智能风险等级并对清单进行补充的权力。考虑到人工智能技术的持续发展与应用场景的不断扩展,人工智能分类分级刑事治理的内容可能要经常进行更新,这迫切需要政府层面建立相应的机构进行评估与判断。但要形成统一的意见并不容易,像目前针对没有人类监督的情况下生成复杂文本的人工智能系统(如ChatGPT)是否应为“高风险”名单的一部分,就存在着巨大的争议。

 

(二)搭建以法益保护前置和技术预防前移为要旨的预防刑事治理路径


人工智能与生活、生产的深度融合,使其应用愈来愈呈现出社会性、公共性的色彩。“当公共安全成为风险控制的主要指向时,事后惩治就应当让位于事前预防”,因此,我们有必要强调预防刑法在刑事治理中的引领效果。

其一,刑法出现了向保安目的发展的预防刑法走向,其逻辑关系的转变包括弱化“人”“责任能力”“罪过”等概念,更加重视“危险性”“安全”等范畴。这标志着人工智能可以作为独立的防卫对象,进而进行预防性的刑法处置。事实上,如果将损害的刑事责任交由人工智能承担,那么为其确定适当的预防性惩罚将非常困难。反之,如果分配责任的最终目标是防止人工智能重复有害的行为,那么最合适的事情不是惩罚,而是改变人工智能系统本身。如此,人工智能的预防性刑事治理,就是“专注于消除人工智能自身的风险,将其归入对物保安处分措施的范畴”。

其二,遵从预防刑法在法益保护前置方面的立法规律,在损害后果出现之前提前规制具有危险性的行为,从而实现预防性保护的目的。尤其是针对高风险的人工智能而言,更有必要提前化解危险。例如,在尚未出现产品损害结果前,就可以将“拒不履行设计、制造、警示、跟踪观察、召回、停止销售等安全管理义务”的行为进行预防性规制,或者将在生产、作业中违反关于人工智能安全管理规定的行为,纳入危险作业罪的规制范围。

其三,对技术性预防措施的提前安排,客观上达到了使刑法规制提前的效果,因而也具有预防刑事治理的性质。例如,在自动驾驶汽车的设计过程中,优化隐私保护最有效的策略是从一开始就将隐私保护构建到设计当中,即形成“设计隐私(privacy design)”,这种积极主动保护隐私的策略也有助于加强用户信任。许多美国公司已经遵循自己的隐私设计版本,将隐私考虑因素整合到商业模式、消费产品设计、产品开发周期和新技术应用中。这样,隐私保护就能延伸到产品设计阶段或更前置的推出产品、技术或应用程序之前进行的隐私影响评估(PIA)阶段,从而有效避免人工智能产品上市后可能引发的大规模隐私泄露事件。

当然,人工智能的预防刑事治理还必须受制于比例原则的基本要求。要根据人工智能刑事风险的类型、程度等综合判定预防刑法的设置必要性,以避免刑法的过度介入阻碍人工智能的技术利用与发展。

 

(三)探索以“自我规制的规制”为核心的合作刑事治理路径


在人工智能技术治理与敏捷治理的要求下,市场主体(参与主体)开始从“治理受体”转变为“治理主体”,从而被赋予多重安全保障或犯罪预防义务。这虽然是其对于人工智能产品或服务的支配能力的体现,但亦模糊了行政规制与刑事规制的应有边界,因而背上了技术发展的沉重负担。为此,我们应当将多元主体的协同治理嵌入犯罪合作模式下,通过责任的折抵(阻却)催生激励效应,进而将刑事治理的重心转换到“自我规制的规制”中。

人工智能的合作刑事治理,要经过两个阶段的治理步骤:首先,是参与主体“自我规制(self-regulation)”。其内容可以来源于自我监管,也可以来源于政府指导或用户反馈,但最终都是落脚到自我规制之中。其次,是再由国家通过控制参与主体自我调控来进行间接规制,即“自我规制的规制”(regulating self-regulation)。在此过程中,刑法作为“自我规制的规制”的形式,实质上是国家通过间接性刑法规制缓和了直接规制的强制性属性,这不仅合理利用了市场主体的技术或数据优势,也为人工智能的技术发展提供了更多的容错空间。当然,国家并非完全抽身于“自我规制”之外,多元主体的“自我规制”依然需要接受国家设定的人工智能算法标准、产品标准、合规管理体系等基础框架的约束。

由此,人工智能的合作刑事治理实际上就形成了“国家指导—自我规制—自我规制的规制(刑法规制)”的体系化刑事治理流程。例如,2023年国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》第十五条规定:“对于运行中发现、用户举报的不符合本办法要求的生产内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”在此,“采取内容过滤等措施”以及“通过模型优化训练”就属于“自我规制”的内容。如果生成式人工智能服务提供者不采取必要的预防或纠正措施,就应当考虑设定一定的刑事责任,作为“自我规制的规制”的一种外部强制力保障。

 

(四)铺就融合人工智能广场域、多模式规制手段的复合刑事治理


路径人工智能刑事治理的多元方法,决定了刑法规制在整体上的复合性。但这种复合性的表现,并非机械地拆分人工智能犯罪的组成要素,而是从不同维度充实人工智能犯罪的内容、丰富人工智能犯罪的治理方法。笔者认为,当前主要的复合刑事治理方案包括(但不限于)算法刑事治理、数据刑事治理、产品刑事治理、网络刑事治理等范畴。

1.人工智能的算法刑事治理。对人工智能算法的刑法规制,可以在三个层次予以处置:(1)算法侵害层面,即针对算法妨害(抽象性侵害)与算法损害(具体侵害)的刑法规制,前者如人工智能犯罪风险评估中的算法歧视(种族歧视、性别歧视等),后者如人工智能算法向儿童推荐不健康信息;(2)算法伦理层面,即对违背人工智能算法伦理准则的刑法规制,如自动驾驶道德决策对乘客的偏向保护引发的公平性问题及生命伦理问题;(3)算法治理制度层面,即对违反算法备案制度、算法审计制度、算法问责制度等要求的刑事治理。

2.人工智能的数据刑事治理。对人工智能数据的刑事治理,应当着眼于数据安全风险评估,实现对数据安全管理风险、数据处理活动风险、数据安全技术风险、个人信息保护风险等四个方面的刑法规制。例如,人工智能的数据处理活动风险就涉及窃取数据、数据泄露、非法加工数据、非法买卖或提供他人重要数据、非法公开数据等犯罪的规制。但是,着眼于人工智能技术的长远发展,数据刑事治理不能妨害到数据利用与数据共享,因而还必须将正当的“数据获取或利用行为除罪化”,或者进行一定的出罪设计。

3.人工智能的产品刑事治理。对人工智能产品的刑事治理,既需要拓宽、更新当前产品犯罪缺陷认定的内涵,如设计缺陷(存在人工智能的合理替代设计)、制造缺陷(符合人工智能产品规格和标准)、警告缺陷(告知隐藏的危险,并就人工智能产品的安全操作进行指导),也需要增设产品过失犯罪以及产品危险犯罪等类型。

4.人工智能的网络刑事治理。对人工智能的网络刑事治理,需要考虑到两个层面的对策调整。一方面,对利用网络犯罪侵害人工智能安全的行为,要强调“人工智能现在是网络安全的重要组成部分”,从而将人工智能系统及其数据作为非法侵入计算机信息系统罪的保护对象;另一方面,对利用人工智能实施网络犯罪的行为,要强调公共安全犯罪的治理以及强化网络平台的监管责任。例如,深度伪造(Depefake)对于图像、视频、音频、文本的合成或操纵,被大规模应用于色情、网络攻击、网络欺诈。对此,应当强化网络平台对于类似深度伪造技术在其平台传播的监管,否则可能构成拒不履行信息网络安全管理义务的犯罪或者协助利用深度伪造技术犯罪的共同犯罪。

 

(五)形成覆盖人工智能全周期且“宽严有别”的刑事治理路径


人工智能的全周期刑事治理,要求刑法规制要覆盖研发、生产与应用的全周期过程,但也应当重视在分级分类的基础上进行区别性、个别化的处置。笔者认为,人工智能的全周期刑事治理在宏观安排上适宜采用“宽两端,严中间”的规制思路,即呈现出对研发与使用环节的适度宽松,以及对生产环节严格要求的治理态势。

就人工智能的研发阶段而言,如果苛责研发者(程序员)必须考虑产品造成的所有潜在危害的情况,则将阻止人工智能领域的进展。因为不可预测的法律风险,会导致更少的人合法地参与人工智能开发。因此,要使研发程序员承担刑事责任,必须证明其在编程过程中存在疏忽,或者是因为他没有预见到程序本身的某种缺陷。如果没有罪过因素,对由此产生的损害后果或者危险,可以作为刑法上“被容许的危险”或者通过民事责任予以补救。

对于人工智能生产阶段而言,首先,生产者(制造商)最适合判断人工智能产品是否足够安全以投放市场,因此有理由让其(原则上)承担使用机器人可能造成的损害风险;其次,人工智能生产者在生产与应用领域的支配、控制能力,使其具备在这两个阶段履行安全管理义务的条件,并承担拒不履行安全管理义务的刑事责任;最后,考虑到“人工智能技术的进一步发展会导致无法确定制造商的刑事责任的情况,因为因果关系将停止”,可以通过设置危险犯的方式,在一定程度上弱化罪过的结果判断,从而使其更多地呈现出行为罪过的样态。

对于人工智能产品的应用阶段而言,应当延拓信赖原则理论在人工智能应用领域的适用,即在可以合理信赖(不同等级)人工智能的自主性功能范围内,免除所有者或使用者的刑事责任。但在此之外,其仍然具有遵守安全操作规则的义务。例如,对于无人驾驶汽车的致损事故,使用人可以合理信赖自动驾驶系统的自主“驾驶”功能,因而不应由其承担刑事责任。但如果其知道无人驾驶车辆出现故障而仍然强行启动和运行时,则可能构成过失致人死亡(重伤)罪。


五、结语

当前,围绕着人工智能风险的法律治理,各个国家、政治团体、立法机构等提出了众多极具创造性的解决方案。例如,欧洲议会就试图创建一个集体保险基金(collective insurance fund)来承担人工智能系统造成的损害。但是,这不过是一种旨在满足受害者需求的短期解决方案。由于人工智能的技术轨迹是不确定和不可预测的,因此在今天构建一个经济补偿的方式以满足尚未可知的未来需求是不明智的。在学术界,也不乏有类似的见解。然而,这种试图脱离刑法管控的治理路径恐怕只能是缘木求鱼,甚至还会“反噬”人工智能技术与产业的良性发展。

事实证明,“将人工智能的创造和运作与刑法规范相协调,可以看作人工智能法律监管中最重要的一步”。而通过多元理念、多元结构、多元主体、多元形式、多元方法的理论解构与重塑,再经由分类分级治理、预防治理、合作治理、复合治理、全周期治理的路径选择,正是融合人工智能刑事治理的实践需求与目标诉求,从而在理论与实践中所迈出的积极变通、主动应对的“最重要的一步”。如此,既能在顶层设计中合理嵌入多元化的价值评判,亦将助益于现代化人工智能刑事治理体系的理性构建。


原文刊发于《厦门大学学报(哲学社会科学版)》2023年第4期《科技与社会研究》专栏,第54—66页。因篇幅问题,注释删略。


欢迎关注“厦门大学学报哲社版”微信公众号

投稿平台

https://xdxbs.xmu.edu.cn/


继续滑动看下一个
厦门大学学报哲社版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存