刘艳红、龚善要:《网络服务提供者对AI决策的刑事归责研究》
网络服务提供者对AI决策的刑事归责研究
作者
刘艳红,湖北武汉人,中国政法大学刑事司法学院教授,博士生导师。
龚善要,安徽六安人,东南大学法学院博士研究生,最高人民法院司法大数据研究基地(东南大学)特聘研究员。
摘要
AI可解释性问题直接导致AI决策的刑事归责难题。基于科学技术与法教义学的立场观察,AI因其不可解释性而不能成为刑事归责的主体。通过因果关系的适当延长,网络服务提供者具有成为AI决策归责主体的可能性,但需要结合是否履行了结果回避义务进行区别判断:对于已经履行结果回避义务的网络服务提供者而言,因其主观上的不可谴责性而可以免责,不对AI决策承担刑事上的法律责任;对于未履行结果回避义务的网络服务提供者而言,需要结合结果预见的可能性进行综合判断。理论上,未履行结果回避义务的网络服务提供者因其具有客观上的可谴责性对AI决策具有可归责性。
关键词:AI的可解释性;网络服务提供者;刑事归责;结果回避义务
一、AI的可解释性问题导致刑事归责难题
人工智能时代的到来在积极影响政治、经济、文化发展进程的同时,也诱发社会产生新型风险,并给既有的法律制度带来全新挑战。AI决策作为人工智能技术的典型应用,以其决策的效率性、稳定性、准确性等优势在交通、医疗、金融、教育、法律等诸多场景得到广泛应用,尤其是在大数据、人工智能、云计算等技术与公民社会深度融合的时代下,网络服务提供者更是将AI决策的应用推广到一个更高的程度,网页浏览、网络购物、外卖配送等日常行为都已与AI决策密切关联。然而,AI的算法模型和运行保密性使得公众无法知晓AI决策可能存在的干预,人工智能算法的不公开、不透明也使得AI决策处于“黑箱”状态。基于透明使人心理安定、“黑箱”使人心生恐惧的人之本性,发展可信、透明、可解释的AI决策已经成为全球共识。例如,2017年4月,美国国防部高级研究计划署(Defense Advanced Research Projects Agency,简称 DARPA)启动了名为“可解释的人工智能”(Explainable Artificial Intelligence,简称 XAI)项目,试图提高 AI 系统的可解释性。22019 年4月8日,欧盟委员会发布的 《人工智能道德准则》(Ethics Guidelines for Trustworthy AI)指出,“值得信赖”人工智能应当满足包括监管性、稳健性、安全性、透明性、解释性等多项条件。2019年6月,我国科技部发布的《新一代人工智能治理原则——发展负责任的人工智能》指出,人工智能系统应不断提升可解释性。2021年1月6日,欧洲议会和理事会制定的 《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》 第13条规定:“高风险的AI系统应随附以适当的数字格式或以其他方式使用的说明,其中包括与用户相关,可访问和可理解的简明、完整、正确和清晰的信息。”这也是对可解释性问题的强调。事实上,关于透明性的界定问题,2017 年 12 月,电气与电子工程师协会(IEEE)发布的《合伦理设计》报告第四条指出:“透明性意味着我们可以发现人工智能系统如何、为何作出某个特定的决策。”在此意义上,人工智能的透明性问题事实上也就是指人工智能系统决策过程与机制的可解释性问题。据此可见,借助“可解释性”解决人工智能所面临的问题已经在世界范围内达成共识,并成为人工智能领域的研究热潮。
或许受政策规范层面的影响,也或许因为AI技术发展的现实需求,事实上,对可解释性的研究已经不再仅仅局限于人工智能领域,呈现出显著的“外溢”现象,基于可解释的AI研究已经纷纷在教育、医疗、金融乃至法律等诸多领域全面展开。尤其是在法律领域,可解释性似乎已经成为解决AI法律问题的一把“金钥匙”,它直接关系着用户权益的充分实现并决定着社会对人工智能的准确认知。通过可解释性,明确算法决策的主体性、因果性、相关性,是确定和分配算法责任的前提。
理论上,AI可以通过海量数据、深度学习算法等智能化工具自主作出决策,实现对风险的回避。但就现实而言,目前阶段的AI决策并非完全值得信赖,AI所作出的决策甚至已经引发现实的刑事风险。在此背景下,如何对AI决策进行刑事归责就成为当前学界所必须予以回应的现实问题。整体来说,对风险的刑事归责大致从违法性与有责性这两大路径展开。一方面,就违法性而言,因违法性是符合构成要件的行为与整体法秩序之间的冲突,这就意味着,对于违法性的判断存在两个基本要素。一是必须存在对行为予以规制的整体法秩序,或者说存在对行为予以规制的前置法规定。在这一层面,前置法规范是违法性认识的内容,也即是否存在否定行为的法律规定是判断违法性的核心之一。二是必须存在一种违反法秩序的行为。行为的有无是确定是否具有违法性的关键。刑法理论中对于行为的界定是指那种客观的、外在的现象,是可以改变世界、侵犯现实法益的,是人身体的活动。换言之,刑法理论对违法性中的行为认定是指人所做出的行为,而非思想或者思想之外的非人身体活动的其他行为。在此意义上看,若想对AI决策所引起的风险进行刑事归责就必须首先对AI决策的行为进行符合刑法理论的解释,因此AI也就必须具有可解释性,同时,这种可解释不仅可以使AI决策行为符合既定的法律规定,更重要的是,还可以将行为的做出最终落脚在具体的人身上。另一方面,从有责性上展开,通过有责性检验行为人是否对该当构成要件且违法的行为承担刑事责任。一般而言,责任的本质“是对实施该违法行为之意思决定的法律谴责”,“作为谴责的对象的行为,必须有可能为行为人的意思所控制”。因此,对风险的刑事归责至少需要行为主体具有故意、过失等主观上的意思,也即对行为的发生与控制具有自由的意志或自主的决定。在此层面,回归到AI决策的刑事归责上,AI 的可解释性除了需要具有行为上的违法性之外,还需要体现出自由意志或自主决定的主观状态。“但事实上,懂运算、会学习,确实是意志得以形成的一个因素,但它绝不是意志养成的充分且必要条件,更非意志本身。意志乃是由多个领域的认知能力综合而成的,人工智能建立在深度学习基础上的自主性,仅仅是一种源于算法程序的机械意志,而绝非心理认知意义上的自由意志。”
整体而言,基于违法性与有责性而展开的刑事归责大致遵循“发生了风险结果→引发风险结果的行为→实施风险行为的主体”这样一条回溯性逻辑进路,通过对违法性与有责性的解释使得刑事责任的认定最终落实在引起风险行为发生的具体主体上。然而,从现有的技术水平来看,实现完全意义上的可解释AI并非易事,以深度神经网络为代表的智能化系统在AI领域里的运用因其不透明的模型会使得打开人工智能的“黑箱”变得更加困难。在此基础上看,AI似乎并不具有违法性与有责性的可解释性,因此,对AI决策主体归责的认定通常会在“引发风险结果的行为→实施风险行为的主体”环节陷入困境,并进而使得网络服务提供者、AI决策使用者甚至AI系统本身等多方主体共同卷入归责主体的认定上。至此可以发现,在教义学的立场上,基于违法性与有责性展开的刑事归责在AI决策的应用上并不顺畅,而事实上,导致这种不顺畅的根本原因恰恰是因为AI自身是否具有技术逻辑与教义学上的可解释性,或者说,正是因为AI的可解释性问题才导致了刑事归责难题。
二、网络服务提供者对AI决策的可归责性
AI的不可解释性决定了其不能成为AI决策的刑事责任主体,对AI决策的刑事归责需要通过延长因果关系寻找其他适格的主体。基于对客观归责理论的分析,网络服务提供者对AI决策具有刑法上的因果关系。而对于最终的责任认定应当基于网络服务提供者是否履行了结果回避义务予以断定。
(一)人为主体源于AI的不可解释性
目前学界未能对AI决策的刑事归责问题达成有效共识的原因除了AI具有决策的自主性与身份的虚拟性特征,也与其研究的视角有关。归根结底,AI决策的归责问题是解决权利能力与义务承担问题,也即确定究竟是哪个或者哪些主体(网络服务提供者、AI决策的使用者、AI)对AI决策的行为承担应有的义务。因此,对于AI决策的刑事归责问题还可以从权利义务的视角展开。在法哲学层面,可解释性与可实践性是权利义务理论科学性的两个关键指标,也即行为只有可解释性才能成为权利的主体、承担法律义务,进而具有实践性。由此,“作为‘责任(accountablity)’最基本的因素,主体的行为必须可被解释”。这也就意味着,法律主体需要对自己的行为承担法律责任就需要其行为本身必须可被解释。对于AI决策而言同样如此,解决AI决策所引起的归责问题,必须从AI的可解释性着手,对AI决策的过程作出人类所理解的说明、阐释。但从现有的技术逻辑与教义学的立场上观察,AI并不具有可解释性,AI不是AI决策的刑事责任主体。
从技术逻辑上观察,实现完全意义上可解释的AI充满挑战,AI并不具有可解释性。可解释的AI概念(XAI)大致可以追溯到2004年,当时旨在探讨全谱命令系统在军事与电脑游戏中的应用,但在随后的时间段内,可解释的AI并没有取得实质性进展,直至2016年,美国国防高级研究计划局发布了可解释人工智能研究计划,可解释的AI才真正拉开快速发展的帷幕,在人工智能、计算机、医疗、金融等多个领域掀起研究热潮,并成为人工智能发展的主要趋势。但即便如此,在完全意义上实现可解释的AI仍然存在挑战。与AI早期研发技术路径不同,现如今的AI研究主流“不得不偏离刚性逻辑和经验性知识推理的老方向,转入到完全不依赖逻辑和经验知识支撑,仅仅依靠数据统计的神经网络、计算智能、多 Agent 和统计机器学习的新方向”。事实上,正是数据、深度学习算法(人工神经网络)与AI的深度绑定,才致使AI走向不可解释性。深度学习模式下的AI决策过程是以“黑箱”模式完成的,而“黑箱问题的根源并非人工智能采用了人看不到的方式‘思考’,而是当前人工智能因采取了神经网络、深度学习等算法而导致数据极其复杂。当前,人工智能科学亦致力于提高数据的可解释度”,但“在深度学习领域,基于人工神经网络结构的复杂层级,在AI深度学习模型的输入和输出结果之间,存在人们无法洞悉的‘隐层’,埋藏于这些结构底下的零碎数据和模型参数,蕴含着大量对人类而言都难以理解的代码和数值,这也使得AI的工作原理难以解释”。除此之外,深度神经网络(DNN)是人工智能中应用最为先进的一种模型,尤其是在视觉分类问题上甚至已经达到接近人类水平的性能,但是,由于该模型内部的参数共享和复杂的特征处理,目前的技术很难解释模型到底学习到了什么知识,以及如何作出最终的决策,很难辨别通过深度学习训练出来的数学模型是如何获得特定的预测、推荐或决策的。总之,在技术逻辑的视野下观察,实现完全意义上的AI解释仍然存在着一定的挑战,尤其是在深度学习算法的研发逻辑下,对AI决策行为的解释就显得尤为困难。
从教义学的立场上看,将不具有可解释性的AI 作为刑事归责的主体也不具有理论上的可行性。一般而言,刑事归责往往与以下两个基本问题密切相关:一是法律的适用问题,即将法律规范适用于具体个案并以充分法理解释其正当性。换言之,行为只有具有可解释性才能在某个具体法律规范中予以准确适用。二是违法行为的预防问题。对行为的解释过程也就是对主观心理状态的探究过程,也即对自由意志或自由决定要素的探知过程。事实上,也只有基于自由意志的行为才具有惩罚的可能性,并进而起到预防作用。在此基础上看,探讨AI决策的归责问题也就是探讨AI决策行为的法律适用与违法预防问题。然而,从目前AI决策的技术逻辑来看,AI决策行为并不具备上述两项基本要素。一方面,前文已经提及,目前阶段的AI决策行为并不具有技术上的可解释性,因此,AI 决策行为的“黑箱”状态无法实现法律规范的准确适用。详言之,法律适用的过程是案件事实与法律规范之间对向交流的过程,尤其是在刑事犯罪构成要件符合性与违法性的判断上,更是需要全面、准确地理解其他法律,同时精准阐释案件事实。正如拉伦茨所描述的那样,“必须考虑在可能适用的法条之下,由‘未加工的案件事实’形成作为陈述之终局的案件事实,同时也必须考虑在终局的案件事实之下,将应予适用的规范内容尽可能精确化”。这也即表明,法律规范准确适用的前提之一是必须精准把握案件事实。问题在于,现阶段的AI对作为案件事实构成部分的行为尚不能作出合理解释,更遑论法律规范的精准适用。另一方面,对不可解释的AI决策行为进行归责并不具有惩罚的效果,也不能起到预防不法行为再次发生的作用,因此,AI不应成为刑事归责的主体。具体而言,刑事归责的本质是答责,也即“行为人需要对其试试的某些行为作出应答”。从规范层面上看,对于那些需要作出应答的不法行为大致遵守从客观到主观、从违法到责任的判断模式。也即对行为评价需要首先从客观要素上看是否具有违法性,然后,才可能进一步判断其责任上的心理因素。换言之,对于那些需要作出应答,或者说需要承担法律责任的行为不仅要看其行为本身是否具有违法性,还要考察作出行为的主体是否具有责任上的心理要素,能否以故意、过失等人类可理解的心理因素予以说明、阐释。事实上,也唯有如此,才能借助惩罚效果实现对不法行为的预防。然而,从事实层面看,不论是人工智能医疗、自动驾驶还是个性化推荐等AI技术的应用,其决策过程都被算法“黑箱”笼罩,呈现出不可说、不可理解的状态,并无自由意志的体现。因此,将AI 作为刑事归责的主体既不具有理论上的可行性也没有现实的必要性。
(二)人为主体源于存在的因果关系
如果说AI因其不可解释性而无法成为AI决策的刑事归责主体,那么对于提供AI决策服务的网络服务提供者而言是否具有归责的可能性呢?事实上对于这一问题的回答可以联系刑法上的因果关系进行分析。
网络服务提供者能否对AI决策承担责任的一个关键因素是对因果关系的判断。在刑法理论中,因果关系先后经历了条件说、相当因果关系说以及客观归责理论等诸多学说的发展。其中,条件说“通过假定的消去法来判断行为与结果之间的关系”,也即采用“若无行为则无结果”的判断模式,“但在现实中所实施的行为之外,存在同样的可能引起构成要件结果的代替的原因的场合”。例如,在疫情防控的场景应用中,虽然网络服务提供者在健康码、行程码的算法设计上尚未尽到合理的注意义务,导致对关键信息的遗漏进而作出行为人“绿码”的错误决策判断,但事后查明,疫情传播是由于行为人其他原因所致。此时,如果将疫情传播的原因单纯归责于网络服务提供者则显然不当,因此,将条件说适用于AI决策行为的归责认定并不具有适当性。相当因果关系理论是在条件说的基础上发展而来的。相当因果关系的核心问题是相当性,就如何认定因果关系的相当性问题在大陆刑法理论中分别存有主观说、客观说以及折中说三种观点。虽然各个学说的侧重点有所不同,但在具体因果关系的判定上都体现出对社会经验的依赖,并呈现出一定的主观性,从而导致难以得出统一的关于相当因果关系的判断结论。例如,在自动驾驶引发的交通事故中,按照相当因果关系理论,网络服务提供者(网约车服务平台)、自动驾驶使用者(乘客)以及自动驾驶本身究竟哪一个主体对交通事故的发生具有最根本的“相当性”并不能得出明确的答案。因此,相当因果关系说仍然难以胜任对AI决策行为的因果关系认定。客观归责理论是由德国刑法学者Roxin在20世纪70年代所创立,以制造了法所不允许的风险、实现了法所不允许的风险以及结果在构成要件的效力范围之内三个原则为基本内容。虽然关于客观归责理论究竟是确定因果关系理论还是实质的构成要件理论存有争议,但从本质上看,“因果关系理论正是关注构成要件符合性判断的理论,只不过,它是通过对‘构成要件性因果关系’的否定来否定犯罪的成立,而客观归责理论则是通过对‘构成要件性行为’的否定来否定犯罪的成立。” 换言之,客观归责不仅以因果关系为基础,而且在实质上也就是因果关系。因此,可以从客观归责的理论视角探讨AI决策行为的因果关系问题。
作为客观归责理论组成内容的“制造了法所不允许的风险”和“实现了法所不允许的风险”事实上是关于行为的规范,第三个要素“结果在构成要件的效力范围之内”则是关于结果的规范。因此,在因果关系的视角上观察,客观归责理论事实上就是关于行为与结果的关联性的判断,也即将行为归属于结果的判断。但问题的关键在于,由于AI并不具有教义学与技术逻辑上的可解释性,AI在作出决策行为之后,行为便与行为主体发生脱离,也即行为与行为主体之间分离为两个独立部分,加之AI 的不可解释性与不可归责性,因此,在行为归属于结果的判断上就必须适当地延长传统因果关系链条,将引起风险的行为延伸至网络服务提供者的算法设计上。或者说,正是网络服务提供者提供的不当设计,才是真正“制造了法所不允许的风险”“实现了法所不允许的风险”的行为,并使得“结果在构成要件的效力范围之内”。问题在于,对于AI决策而言,能否将因果关系适当延长,并追溯网络服务提供者为行为的实施者呢?本文的观点是肯定的。原因如下:一是网络服务提供者在AI决策的算法研发、模型训练以及系统维护上具有显著作用,AI决策的使用者仅仅是对成熟技术的简单应用。根据行为的客观实质分担性要求,分析不同主体的责任承担需要依据不同主体行为是否具有实质性来展开。26因此,相较于实质参与研发、训练、维护的网络服务提供者而言,仅仅参与应用的AI决策使用者对于风险发生的作用微乎其微,因此在责任的最终承担上并不具有更高的权重。二是AI决策的风险虽然是在决策作出的那一瞬间发生,但AI作出决策的行为并非是真正引发风险的实行行为,作出决策的行为不过是算法程序规则的机械执行。事实上,网络服务提供者在AI决策算法的研发完成之时,风险的实行行为也即完成,并通过大数据、深度学习算法等工具“延迟”了行为。因此适当延长因果关系的行为判定,并认定网络服务提供者作为行为的主体并无理论上的不当。在此逻辑下,网络服务提供者的行为是否制造了法所不允许的危险事实上就成为因果关系首要且基础性的判断要素。一般而言,“行为的反道义性、反社会性能为一般国民所认知的自然犯(刑事犯)”与“因为违反了法规才产生犯罪性、反道义性的法定犯(行政犯) ”共同组成刑法中的犯罪类型,而“刑法上的解释,有时候是建立在其他法律领域之规范体系和标准性的语言使用之上”,因此,网络服务提供者是否实施了法所不允许的行为事实上可以从其他前置法的规范中予以判断。例如,2018年8月31日,十三届全国人大常委会第五次会议表决通过的《中华人民共和国电子商务法》(以下简称《电子商务法》)第18条规定:“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”这也就意味着,电子商务经营者(网络服务提供者)基于AI决策技术提供个性化推荐、营销等服务时,必须预先嵌入不针对消费者的兴趣爱好、消费习惯等特征的算法。否则,一旦“实现了法所不允许的风险”,并使得“结果在构成要件的效力范围之内”,则可以基于客观罪责理论认定电子商务经营者“制造了法所不允许的风险”,从而使得行为与结果之间具有因果关系。
总之,可以基于客观归责理论认定网络服务提供者的不当行为与AI决策所造成的风险结果之间具有因果关系,并进而在此基础上认定网络服务提供者对AI决策具有可归责性。
(三)人为主体源于具有结果的回避义务
确定了刑法上因果关系并不一定表明网络服务提供者就需要对AI决策行为承担所有的刑事责任,对于责任的最终认定还需要基于网络服务提供者的结果回避义务进行最终判断。
面对AI决策与人们日常生活联系日益紧密的未来趋势,网络服务提供者作为AI决策的实际研发者所具有的社会地位事实上已经远远超出了服务提供者的单纯角色。在AI决策领域,网络服务提供者凭借着自身的技术优势以及平台的规则已经成为社会利益的最大获得者。借鉴我国政府依据“谁受益谁负责”原则所制定的“以网管网”的规制策略,网络服务提供者对于AI决策风险的责任分配也应予以重新审视。事实上,这种责任上的重新审视也具有时代的正当性与可行性。在风险社会与网络连接的时代特征下,公法与私法日益融合发展,公私边界日益淡化,而且这种淡化不是仅仅停留在公民这一私权利个体上,网络服务平台的公私属性也同样发生着悄然变化,并引发责任定位的迁移。例如《德国民法典》第 823 条与第 1004条规定将网络平台的责任定位于“妨害人责任”,并创设了其“面向未来的审查义务”,这意味着在责任分配上已经从制度层面承认了平台的主导作用,因此平台也被赋予了主要责任。在此层面上,网络服务提供者对社会风险也理应承担更多的责任分配。问题在于,即便承认应当对网络服务提供者赋予更多的责任分配,但这种责任是否需要一个客观、准确的分配标准呢?事实上,如果不加区分地将刑事上的法律责任全部归责于网络服务提供者,不仅不利于我国人工智能产业的发展,也与刑法的谦抑性理念相违背。结合AI决策过程中实行行为偏离的时代特性,对网络服务提供者的责任分配的标准界定可以借助过失犯罪理论中的注意义务予以解决。尤其是实行行为被大数据、深度学习算法等工具“填埋”与“延迟”之后,注意义务的明晰事实上也是刑事归责的基础。
“客观归责理论对于过失犯中的归责判断,藉由行为人对注意义务预见可能性与结果回避可能性这一心理要素的判断”,由此可知,注意义务是过失犯成立与否的关键要素。因此,网络服务提供者对AI决策行为的归责讨论在理论上还应落脚于网络服务提供者是否履行了注意义务这一层面。一般认为,注意义务是过失犯的中心要素,主要指结果预见义务与结果回避义务。在传统的过失犯理论下,过失是在应当预见犯罪事实,或在能够预见的前提下却因紧张而没能预见的情形寻找过失非难的根据,其认为结果预见义务是过失犯罪的本质。也即只要行为人主观上没有希望或者接受危害结果发生的内容,客观上有违反法律、法规等行为,且行为与结果之间存有因果关系即可认定过失的成立。但对于AI决策而言,结果预见义务并不具有很好的解释力。原因在于,不论是在理论层面还是实践层面,现阶段的AI决策并没有达到理想状态,并非值得绝对信任,基于AI决策而引起的风险已经引发社会广泛关注。因此,在结果预见义务前,网络服务提供者始终处在理应或者应当预见AI决策可能存在风险的这样一种自然常态下,也正是这样的一种常态使得网络服务提供者需要承担更多的义务责任,对于网络服务提供者而言,结果预见义务甚至可以等价为“一刀切”规制。但事实上,AI决策的技术应用并非只意味着风险,尤其是在智能化技术已经对社会生活产生方方面面影响并与人类社会无法分离的当下,AI决策的技术应用也会给社会带来一系列的积极作用。例如随着自动驾驶技术在未来的普及,基于人为过失所导致的交通事故将会得到有力控制。因此,基于结果预见义务将AI决策归责于网络服务提供者虽然具有理论上的可能性,但也会使网络服务提供者承担过高的义务责任,而这显然不利于AI决策技术的进步与我国人工智能产业的发展。
相对于旧过失论,新过失论是随着工业事故、尤其是交通事故的大量出现,在过失犯罪激增的时代背景下发展而来,其认为结果回避义务是过失犯罪的本质,也即以具体案件中行为人是否具有预见并避免结果发生的能力为根据认定过失的成立。与结果预见义务相比,结果回避义务在结果预见的基础上增加了一层回避义务的判断,因此,在义务范围的认定上,结果回避义务具有限缩功能,以此为根据对网络服务提供者进行AI归责具有促进AI技术发展与风险规避的调和作用。通常而言,结果回避义务是以客观外在的注意义务作为基准行为。例如,需要借助交通法规来具体认定交通肇事罪。但值得注意的是,在交通肇事罪的认定中,结果回避义务也并不是仅仅以违反交通法规即可认定,事实上,“只有发生的结果属于规则企图防止的结果时,才能以违反规则对主体进行谴责”。这也就意味着,结果回避义务的判断标准并不是指是否违反了行政法上的行为,而是指损害法益结果是否由违反注意规范保护目的的行为所引起。也即,是否违反注意规范保护目的成为判断是否具有结果回避义务的标准。基于对结果回避义务的理解,回归到AI决策行为的归责上,可以将结果回避义务作为最终认定网络服务提供者是否具有刑事法律责任的标准。详言之,判断网络服务提供者对AI决策是否具有刑事上的法律责任的关键在于网络服务提供者的某些行为是否违反了注意规范保护目的。而对于这种注意规范保护目的事实上可以在具体的法律条文中去寻找。例如,2021年8月20日第十三届全国人民代表大会常务委员会第三十次会议通过的《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第24条第2款规定:“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。”该条款中关于“提供不针对其个人特征的选项”“向个人提供便捷的拒绝方式”的规定其目的在于防范AI决策行为可能带来的风险。这也就意味着,只有网络服务提供者遵循了《个人信息保护法》第24条第2款中关于自动化决策的规定,提供了不针对其个人特征的选项,或者向个人提供了便捷的拒绝方式,才可以认定其行为合法,否则,网络服务提供者的行为就是对注意规范保护目的的违反。换言之,正是因为《个人信息保护法》设置了对注意规范保护目的性的规定,才使得网络服务提供者具有了结果的回避义务,从而成为AI决策行为的归责主体。
综上所述,对于AI决策行为的归责研究事实上需要基于阶层式、实质性的判断模式来最终确定,也即首先通过AI不可解释性否定AI成为刑事归责主体的可能;其次,通过客观归责理论确定网络服务提供者与AI决策风险之间的因果关系;最后,基于网络服务提供者的结果回避义务实现归责范围的限缩,并完成归责的最终判断。
三、网络服务提供者对AI决策结果回避义务的展开
承接前述,虽然结果回避义务具有辅助判断网络服务提供者是否具有刑事责任的作用,但并不能据此将结果回避义务作为刑事归责认定的唯一标准。事实上,对于网络服务提供者的刑事责任认定也需要保持最大程度的谦抑性,例如根据日本法律,在平台不具备现实恶意的前提下通常认定平台不具有刑事归责的可能性。因此,也需要将结果回避义务用于对刑事责任的限缩,使其最大程度地发挥调和AI产业发展与风险防范的双重功能。在此背景下,如何对AI决策的结果回避义务进行程度上的判断,并在此基础上厘定具体罪名以及明晰网络服务提供者的出罪机制就显得尤为必要。
(一)AI决策的结果回避义务程度判断
对AI决策的结果回避义务程度的判断不仅涉及网络服务提供者客观的不法层面,还与其主观层面的有责性密切相关。因此,有必要对AI决策的结果回避义务程度予以事先判断。
一方面,网络服务提供者对AI决策的结果回避义务需要以是否预见到可能存在的结果为最低程度。尽管结果回避义务是判断网络服务提供者是否对AI决策具有可归责性的基准,但是,这并不意味着结果预见义务与结果回避义务是两个绝对的对立面,事实上,结果预见可能性是结果回避义务的前提,具有“为选择结果避免措施提供标准的机能”。这也表明,网络服务提供者对结果回避义务履行的第一个程度就必须具有结果预见的可能性。前文也已提及,现阶段的人工智能不同于早期对刚性演绎规则与经验知识的依赖,而是通过数据与人工神经网络实现对行为的自主化决策。数据与人工神经网络对人工智能的介入使得AI决策的过程被置于“黑箱”之中,缺乏清晰可见的规律可循。专家们无法很好地解释AI的决策过程,甚至对“可解释性的本质、研究手段还未能形成统一的认识,未能找到最佳的方案”。这也意味着,现阶段AI决策的结果类似于“薛定谔的猫”,只有在结果发生的那一刻才能准确知晓决策结果的好坏,在此之前哪怕是计算机方面的专家也无法精准预测到可能产生的结果。因此,网络服务提供者对AI决策的结果回避义务就必须以能够预判到AI决策可能产生的结果为前提。对于那些在理论上验证完美,但在现有的技术水平下无法发现其风险的AI决策,网络服务提供者则不可能具有危害结果预见的可能性,因此,也就无须继续履行结果回避义务。同样,对于那些风险已经暴露,或已被揭示原因的AI决策而言,结果预见可能性极高,网络服务提供者完全有可能预见到结果的发生,并可以积极采取有效措施予以回避。因此,对AI决策结果回避义务的最低程度就是履行对结果的预见义务。
另一方面,网络服务提供者对AI决策的结果回避义务需要以是否在客观的违法层面上实施了注意规范保护目的行为为最高准则。结果回避义务与结果预见义务的关键区分点是从客观的罪责层面还是从主观的罪责层面认定过失犯的成立。对于前者而言,行为人必须实施了客观的行为以阻止结果的发生,是对阻止结果发生的行为的重视。而对于后者而言,只以行为人是否具有非难的心理状态来衡量过失犯的成立。对于AI决策的归责问题,在本质上需要基于结果回避义务进行探讨,这也就决定了,在具备结果预见可能性的前提下,必须以客观的、外在的行为回避危害结果,而不是以主观的、内在的心理状态回避结果。例如,在基于AI决策的个性化推荐场合,通过个人喜好、习惯、健康状态等特征而提供个性化的产品、服务已经成为常态。与此同时,《个人信息保护法》《电子商务法》等具体的法律规范也对其推荐行为进行了明确规定,在此场景下,网络服务提供者是否履行了AI决策的结果回避义务就是评判网络服务提供者是否按照《个人信息保护法》《电子商务法》的规定履行了相应的义务,以客观的、外在的行为而非主观的、内在的心理状态去判断。
(二)是否履行结果回避义务的罪名判断
基于AI决策的结果回避义务程度判断,可以进一步明确可能涉及的罪名并明晰出罪机制。实践中,对于网络服务提供者的涉罪判断应当以是否依法履行结果回避义务而分别认定。
对于网络服务提供者未履行结果回避义务的行为,并由此导致危害结果发生的场合,应当结合结果预见的可能性综合判断。一方面,对于不具有预见可能性的情形,网络服务提供者即使没有履行结果回避义务也不应对风险结果承担刑事责任。详言之,如果是基于现有的技术无法、也不可能得知风险结果的情形,或者是AI已经发展至等同甚至超越自然人的水平,则应当认定网络服务提供者不具有可归责性。前文也已提及,网络服务提供者对AI决策的结果回避义务需要以是否预见到可能存在的结果为最低程度,在无法也不可能预见到的前提下而没有履行结果回避义务,不应当对网络服务提供者进行归责。另一方面,如果网络服务提供者具有结果预见的可能性,但未履行结果回避义务则应认定网络服务提供者的刑事责任,并以生产、销售不符合安全标准的产品罪追究网络服务提供者的刑事责任。一般而言,对不确定法律概念的解释往往总是存在主观评价的余地。因此,如何准确把握结果预见的可能性也需要进一步明确。基于实践与规范层面的把握,具有结果预见的可能性主要表现在以下两个方面:一是同类型的AI决策已经导致了相应风险的出现。例如,基于个性化推荐的AI应用已经在用户层面发生了普遍性错误,或者AI决策系统已经被技术专家披露存在漏洞、风险等情形。在此情况下,网络服务提供者对于结果的预见并不具有实践上的困难。二是相应的法律法规已经明确规定了网络服务提供者的必要义务。例如前文提及的《个人信息保护法》《电子商务法》等对个人信息处理者、电子商务经营者所作出的义务性规定。
对于网络服务提供者确已履行结果回避义务的行为,且将回避义务履行到了最高程度,应当认定网络服务提供者并不承担任何刑事责任。原因在于,结果回避义务本就是因其对技术发展与风险的调和而被应用至AI决策领域,在AI技术已成为世界各国科技力量综合体现的背景下,通过对风险的允许以换取技术的进步可以创造双赢局面。事实上,在工业技术发展的背景下,为了防止刑法的介入,限制经济技术的发展,客观归责下的被允许的危险不仅成为限定过失犯成立的重要手段,也可以同时适用于故意犯。44因此,在网络服务提供者确已履行结果回避义务,且将回避义务履行到了最高程度的情形下,也即否定了对注意规范保护目的的违反,因此也应当否定网络服务提供者的刑事责任。
四、结语
从法教义学和技术逻辑的立场出发并不能解决AI的可解释性问题,AI不能成为其决策行为的归责主体。但在AI决策所引发的刑事风险前,可以基于客观归责理论黏合网络服务提供者与危害结果之间的因果关系,但这种黏合需要在一个客观、可行的标准下进行。结果回避义务具有调和人工智能产业发展和加强AI决策风险防范的功能,因此,可以通过结果回避义务最终判断网络服务提供者的刑事责任。但就结果回避义务的基准判断我国目前尚未形成有效、统一的规定。未来我国应当加快AI领域的立法,明确哪些行为具有违反注意规范保护目的的属性,进而为网络服务提供者是否履行了结果回避义务提供准确的判断依据,实现对AI决策风险的精准归责。
(本文原载于《广西大学学报(哲学社会科学版) 》2022年第3期,转载时注释与参考文献略)
稿约:
本号诚挚欢迎各类投稿,包括主题相关的书籍介绍、学位论文介绍、书评、时评、图片、音视频等。来稿请发送至邮箱dp123321@qq.com。
作者往期附录:
《如何建设新法科 从学科交叉到交叉学科》
《催收非法债务犯罪的理解与适用》
《应合理限定袭警罪“暴力”范围》
《根本性阻断利益集团“围猎”的制度构建》
《关于帮信犯罪理解与适用的焦点问题》
《互易毒品行为应区别对待》
《人工智能的可解释性与AI的法律责任问题研究》
《法秩序统一原理下侵害英雄烈士名誉、荣誉罪的保护对象研究》
《人工智能时代网络游戏外挂的刑法规制》
《洗钱罪删除“明知”要件后的理解与适用》
《企业合规不起诉改革的刑法教义学根基》
《网络时代社会治理的消极刑法观之提倡》
《公序良俗原则的刑法适用》
《〈刑法修正案(十一)〉积极预防性刑法观的反思》
法大网络与智能法研究会
欢迎关注!