查看原文
其他

比扬·法塔赫-穆加达姆 | 刑法中的创新责任:在严格责任、过失与容许风险之间

唐志威译 苏州大学学报法学版 2024-02-05

文章简介

德语原文发表于《整体刑法学杂志》,2019年第4期,第863-887页。本文是2019年德国汉诺威大学举办的第38届德语区刑法学教师大会上同名报告的修正与补充版本,本次会议以“社会能够承受多少过失”为主题。本文延续了报告的风格。

作者简介

[瑞士]比扬·法塔赫-穆加达姆,瑞士巴塞尔大学法基础与生命科学法教席教授。

译者简介

唐志威,德国慕尼黑大学法学院博士研究生、北京大学法学博士。




内容摘要:技术的革新会引发法律的革新。当前,有四种能够解释刑法数字革新的方案,即重塑人的自我画像、作为法(律)媒介的技术、作为法(律)的技术以及“规范的现实领域”的变迁。数字化与技术创新也会对刑法责任的构造产生深刻影响。以人工智能系统为例,刑法中提出了四种创新责任的基本模式,即机器人刑法、严格责任、危险刑法与过失。对于人工智能所诱发的损害,刑法恰当的应对不在于将责任转嫁给机器,也不是引入不考虑过错的严格责任。相反,过失责任仍然是刑法创新责任的恰当基本模式。只有先理解技术的革新潜力,才能回答刑法应作出何种适当的回应。关键词:人工智能;过失责任;容许风险;严格责任;数字化DOI:10.19563/j.cnki.sdfx.2022.03.004



目录

一、重新审视刑法与风险

二、革新性技术

三、刑法数字革新的四种方案

四、刑法上创新责任的四种基本模式

(人工智能的风险教义学)

五、小结






一、重新审视刑法与风险


“在这个‘风险社会’中,刑法和刑事政策陷入了危机……”普里特维茨(Cornelius Prittwitz)1993年所著的经典著作《刑法与风险(Strafrecht und Risiko)》在一开始就提出了这样的论断。同年,巴塞尔(德语区)刑法学教师大会则以“通过刑法手段保障未来(Zukunftssicherung mit den Mitteln des Strafrechts)”为题展开讨论。26年前,(人们)关注通过刑法抵御风险的社会背景是核能与基因科技对环境与人类所造成的现代重大风险。今天,相应的社会背景则是信息技术与生物技术的发展,社会观察家将其称作“第四次媒体纪元”“第四次工业革命”或“第二次机械时代”。由此给刑法学研究带来的挑战,特别是对过失教义学的挑战是根本性的,因而有必要重新审视技术创新的刑事责任问题。在此,本文主要从基础理论的视角出发,讨论技术变革与刑法变迁两者之间的关联,并借此来讨论(法律外的)社会创新与法律中的创新之间的相互作用这一经典法社会学命题,这一命题也成了当前跨学科法律研究的主题。

刑法中的过失概念尤其也参考了技术创新中的风险。这一概念仿佛是刑法用来观察技术创新中风险质量变化的透镜。而普里特维茨所称的“风险教义学(Risikodogamtik)”则成了现代社会在刑法中的体现,根据社会学家罗萨(Hartmut Rosa)的解读,现代社会只能形成动态的稳定,并“系统性地”依赖于“增长、创新的密集化与加速”。在“加速的风险社会(beschleunigte Risikogesellschaft)”(此概念可从乌尔里希·贝克与罗萨的时代诊断中总结得出)背景下,法体系也只有在其自身有能力不断重新调整并适应创新风险时才能够稳定下来。本文将通过“革新性技术(transformative Technologie)”的法社会学概念来把握新技术对法律造成的创新压力(文章第二部分)。革新性技术的典型应用案例包含了下文中的数字化以及本文着重讨论的所谓人工智能(KI)领域(文章第三部分)。在最后的第四部分,本文还将讨论数字化对刑法中的风险教义学可能产生的具体影响。



二、革新性技术


风险教义学正在经历一场复兴,因为信息技术正开始发挥其变革的潜力。根据本文提倡使用的法社会学概念,革新性技术的特征在于,它不仅具有颠覆性的(disruptiv)效果,而且同时还能够改变技术应用的伦理与法律框架。与之相区别的、广泛应用于经济学中的“颠覆(Disruption)”概念则针对一项技术的市场替代潜力,因此,“颠覆”概念涉及的是互相存在竞争的不同技术之间的关系。数字技术具备颠覆性影响的一个简单例证是,作为数字音乐光学存储介质的光盘广泛取代了黑胶唱片。自2000年以来,MP3技术以及在线音乐流媒体服务对音乐的传播又取代了光盘。在文献中,现代信息技术产生颠覆性影响的原因已有详细论述,现总结如下:

  1.几十年来,计算机的性能呈指数级增长,这体现在所谓的摩尔定律(Mooresche Gesetz)中;

2.获取以及处理大量数据的能力使得通过应用信息技术方法了解这些数据的模型并从中获得新的认识成为可能(大数据);

3.在所谓的物联网(Internet of Things)中,信息技术系统逐渐网络化;

4.诸如机器人、自动驾驶汽车和软件代理等由信息技术操控的系统在自动化与自主化方面的成功。例如在图像识别领域以及掌握围棋这样的复杂战略游戏等方面,人工智能所取得的惊人进步来源于由基于模型的人工智能向基于功能的、归纳式机器学习方法的转变,后者可以体现在所谓的神经网络这种形式中。

综观上述(技术领域的)发展可以发现,由数据驱动的信息技术已经发展成了一种“(迪尔凯姆所称的)社会事实(sozialen Tatbestand)”,渗透到社会生活领域的方方面面。援引社会事实这一经典社会学概念是为了强调社会数字化转型的集体性特征和结构性特征。如果我们今天还将数字技术的产物作为第二自然(zweite Natur)对待,那么这种新兴的现实就不能再被简化为个体驱动的人的行为的总和。作为一种行为、思考与感知的一般方式,它“具有独立于个体表达的独立生命”,数字化从外部影响个人,且这样的影响具有强制性的特征。在数亿投资的支持下,自动化(机器人)、自主化(人工智能)与网络化(物联网/大数据)三者的结合正逐渐将我们与世界的接触转变为“线上生活(Onlife)”模式。在此模式中,数字线下生活和模拟现实不可分割地交织在一起。这同时也意味着,个人不再能自我决定他想要过线上生活还是线下的生活。主动逃离数字化转型也变得越来越困难。如果有人像德国绿党联邦主席哈贝克(Robert Habeck)那样,认为社交媒体对其本人的政治传播风格存在负面影响,而(部分地)删除其社交账号,那么,这虽然展现了他非凡的自我反思能力,但他也因此更多地还是通过他与数字媒体之间的关系定义了自己。即使对一个以最低限度融入社会的人而言,完全的数字禁欲也已经不再可能。

  由此,数字信息技术在性能提升上的量变以及全覆盖的社会普及程度已经到达了一个关键点,在这个关键点上,数字信息技术质变成为一种革新性技术。根据本文提倡的法社会学解读方法,革新概念(Transformationsbegriff)并非针对多个相互存在竞争的技术之间的关系,而是针对技术对社会规范载体(即伦理和法律)的影响这一更具前提性的假设。由此而推导出的事实、科学和技术发展与特定规范变迁之间的联系与法哲学和道德哲学中盛行的观点处在一种紧张关系之中,即人们不允许(直接)从实然(Sein)中推导出应然(Sollen)。事实上,“数字化”本身也并不包含规范性,它并非直接迫使特定的伦理或法律后果发生。因此,伴随数字化而来的法律变革不能从技术直接因果性地调控或决定法律内容的角度来把握。然而,无论是从法律史的角度,还是从当前的发展来看,都表明存在特定的机制能够将技术与法律的共同演进(Co-Evolution)联系起来。下文将提出四种能够解释刑法数字革新的方案,这些方案并不会使刑法中概念建构的自主性遭到质疑。




三、刑法数字革新的四种方案


(一)重塑人的自我画像


首先,我们从思想史中可以得知,科学与技术革命根本性地改变了人自己的形象以及人与自然、技术之间的关系。就此而言,哥白尼从地心说到日心说的世界观转变被认为是一种划时代的(avant la lettre)革新性科学认识。在《技术思想史》一书中,布卢门伯格(Hans Blumenberg)描述了“人居于其世界中心的自我定位”如何成为现代自我决定的个体构造的事实前提。在这种解读方式中,技术被当作人“决心成为无限制力量的主体之现象”的“自由精神活动的纯粹构造”。值得注意的是,由人类创造的“算法的邪恶力量”现在正变得独立,并成为“第二自然”与人类形成对立。

这改变了人类解释其与自然和技术关系的参考框架,即所谓架构(Framing)。根据戈夫曼(Erving Goffman)的解读,框架或架构指的是解释所发生事件的启发式方法,我们通过这些架构来建立我们的日常经验。当我们观察某个事件时,我们(通常会无意识地)要么将其归类为自然现象(Naturerscheinung),要么将其归类为人类目的导向行为的结果。用戈夫曼的话来说,在自然的架构内解释一个事件意味着(这里也体现了刑法上的相关性),“人们从头到尾完全将这些事件归结为‘自然’的原因”。人们没有将意志(Willen)和目的(Absicht)视为作品(结果)的原因,也没有看到实施行为的人在不断地对结果产生影响”。

上述自然事件的负面后果会以“意外事件”的形式出现,相反,对“不法”的认定只在社会的解释框架中才有意义。在我们生活的世界中,越来越多的人正在接触自我学习机器人和软件代理,这恰恰正在破坏上述意外事件与不法的二元区分,而自我学习机器人和软件代理的社会、道德和法律地位也仍然存在争议。人、动物与机器之间的界限变得模糊的典型体现是,23位国际领先的计算机学者最近共同发表了成立名为“机器行为研究(Machine Behaviour)”这一新学科的倡议。迄今为止仅以人类与动物为对象的行为研究必须扩展到机器领域,因为人们不再有能力仅仅通过机器的内部蓝图就理解复杂的(学习型)人工智能代理;相反,只有在机器与环境的互动中,才能理解这种人工智能代理。有关机器行为的讨论令人印象深刻,并佐证了现代人工智能技术具备模糊与革新那些看似根深蒂固的社会观念的潜力。


(二)作为法(律)媒介的技术(法律科技)


  技术发展影响刑法的第二种可能性是改变法(律)的媒介。法的媒介理论(Medientheorie des Rechts)展示了,通过为法律提供新的存储、归档与传播途径,口语、写作与印刷的发明都对法(律)的形成产生了影响。毫无疑问,计算机网络与信息技术带来的第四次媒体革命已经对刑法与刑事诉讼法的实践造成了影响。这便涉及了不断壮大的法律科技(Legal Technology)领域,该领域不仅涉及相对日常的刑事辩护人办公软件与《欧洲电子证据条例》,它还涉及刑事司法语境下有争议的、依托算法的累犯预测的应用,例如美国的COMPAS(用于替代制裁的罪犯矫正管理分析;全称为Correctional offender Management Profiling for Alternative Sanctions)等软件解决方案。由此产生的规范问题则需要依据实证进行个案分析,这在本文中无法进一步探讨。应用法律科技完成传统法学任务的一个首要风险并非来自让技术适应法学方法,而是来自让法学方法适应技术的运行方式。换言之,这引发了法学方法“计算机化”的危险。与传统法律论证在质的意义上围绕某一裁判的优势理由展开不同,计算机辅助的裁判程序则取决于裁判参数的可量化性。例如,公平(Billigkeit)的正义论角度可能恰好要求在个案中背离严格的规则适用,这一点则很难通过计算机程序来得以体现。



(三)作为法(律)的技术:“规范上的技术操控”?


  数据化革新的第三种模式体现在技术自己承担了法(律)的行为控制功能:技术替代并取代了法律[代码即法律(code is law)]。如果法律上不能成功地涵盖“以算法为手段的行为控制(Verhaltenssteuerung durch Algorithmen)”,那么,这就可能引发社会控制结构的根本改变。法规范之所以具有效力,正是因为法规范可以被违反,就此而言,法规范总是为世界发展进程保留了其他可能性。相反,规范上的“技术操控(Technosteuerung)”则在事实上排除了特定的行为方式:如果乘客没有系上安全带,智能汽车就不会启动出发,而且它的速度也不会超过相应允许的最高速度。这种以技术为中介的不可能性结构(impossibility structures),不仅使违反法律在纯粹物理的意义上变得不可能,还使得违法行为最多只可能出现在与破坏计算机行为相关的场合。由于技术设计的强制性,通过技术设计对自由事实上的限制,比通过法规范制定行为预期还要更进一步。通过在事实上禁止偏差行为,技术的不可能性结构还同时避免了规范违反(行为)在特定条件下引发法律革命性调整的可能性。卢曼(Luhmann)曾经在此语境下提出了“有用的违法(brauchbarer Illegalität)”概念。正在日益逼近的全面通过技术操控行为这一潜在的极权主义特征还产生了宪法上有关“违反法(律)的权利(Recht zum Rechtsversto)”是否存在的问题。这种权利不能被理解为违反刑法制度且不遭受制裁的自由,这一点在逻辑上并不存在矛盾。相反,它最多只能是一种继续拥有遵守或违反法规范的事实可能性的权利。用自由哲学的语言表达,这种享有违反规范可能性的权利同时也说明,个人拥有“决定站在法(律)这一边(sich für das Recht zu entscheiden)”的自由。正确地说,这也不是一种要求(法的)执行(存在)缺陷的权利(Recht auf Vollzugsdefizit),因为事实上的规范遵守(Normbefolgung)与规范执行(Normvollzug)并非是一回事。刑事法律的执行总是预计到了犯罪行为会发生,它出现在追诉与惩罚违反规范的场合,而不会出现在规范受众遵守刑法规范的场合。即使违反刑法禁令的行为后来被制裁,且没有留下漏洞,(违反规范的)偏差行为也仍然可能发生。而技术的不可能性结构的激进之处体现在,它在事实上消灭了这种可能性,而不是在无漏洞的规范执行过程中。从刑法的角度来看,规范上的技术控制并不是基于法(律)规范,而是基于(通常由私人控制的)计算机代码,严格来说,这已经不再是刑法风险教义学的表现形式,相反,这其实埋葬了刑法风险教义学。如果人们愿意这样的话:那么,这也是数字化预防型社会对自由派倡议废除刑法的讽刺回答。


(四)“规范的现实领域”之变迁


  最后,法律数字化变革的第四种构造涉及“规范的现实领域(Realbereich der Norm)”的变迁。由霍夫曼-里姆(Hoffmann-Riem)提出的规范的现实领域概念认为,法规范不仅指向一个语言或文本领域,而且同时与一个特定的现实片段相关联:“这一片段涉及规范中所提及的技术、自然科学、社会、政治、经济、文化、生活等‘现实’基本构造。”现实领域是规范的结构性组成部分,因为正是规范的现实领域才使得对规范的合理解释成为可能。解释法规范意味着,另外还要追问,应当通过解释处理哪些现实生活中的问题。人们只有考虑到立法者计划将哪些生活事实作为涵摄在规范中的“一般情形(Normalfall)”时,才能合理地理解规范。因此,正如人们从诠释学的视角所提出的那样,至少在规范表述上能体现立法者“前见(Vorverstndnisse)”的场合,对规范的解释必须考虑到这一“前见”。这里的立法者前见不仅源自规范性的评价,而且恰恰同时源自一种对社会现实的想象,而这种想象构成了规制的对象。由此,技术创新不仅能改变与法规范相关联的现实技术条件,还同时能改变依靠解释来获得的规范内容本身。此外,在刑法中适用禁止类推(原则)的前提下,由于新的技术方法不再能涵摄在法定构成要件的文义中,技术创新还可能造成某些违背期待的结果或行为不再属于禁止规范的适用领域内。在生物医学刑法领域,人们已经很好地认识到这一(发展)历程。在这些情形中,从规范的角度来看,技术创新创造了规制漏洞,或者说处罚漏洞,这些漏洞则可以为立法改革提供契机。

在这个意义上,这也体现了(上文)第一种数字信息与计算机技术在刑法中的革新性影响。基于严格的法律约束,德国的刑法立法者很早就被迫制定新的特殊刑法构成要件来回应以计算机为媒介的犯罪现象。例如,早在1986年,随着第二部《德国打击经济犯罪法》(2.WiKG)的出台,计算机诈骗罪(《德国刑法典》第263条a)和窥探数据罪(《德国刑法典》第202条a)就已经被纳入到《德国刑法典》中。而在1977年,齐白(Ulrich Sieber)有关《计算机犯罪与刑法》的开创之作就已出版。人们似乎希望以创建一个新的刑法特殊领域(即计算机和网络刑法)的方式来对新技术加以控制。从今天的角度来看,那种认为数字技术所带来的刑法问题可以留给刑法学研究中对信息科学感兴趣的“计算机呆子(Computernerds)”,而刑法的传统领域不受影响的诱人观点则显得很幼稚。社会的数字化为整个刑法科学都带来了新的挑战。人们无论是对刑法总论、经济或医疗刑法、国际刑法还是对刑事诉讼法感兴趣,都将面临数字化所带来的后续问题。为了更明确这一点,犯罪学、法社会学、法哲学和法律史(这些领域)无论如何都属于对数字化进行法学反思的先驱。因此,处在时代前沿的刑法学必须从以下两点意义去理解刑法的数字化:一方面,针对社会生活有关方面数字化所带来的后续问题积极地进行刑法上的观察,这种观察并不限于传统的计算机和网络犯罪领域(刑法作为整个生活领域数字化的积极规制);另一方面,在技术发展的意义上,刑法自身通过技术发展而得到革新(刑法作为数字化的消极对象)。由此带来的任务不能只托付给(公认)不断扩张且日益重要的计算机和网络刑法这一刑法特殊领域。相反,这使得我们更有必要以一种基础学科为导向、跨学科的方式来反思刑法的数字化进程,这样的反思虽然从具体问题出发,但同时又将具体问题抽象化,以此为技术与刑法共同演进(Co-Evolutionn von Technik und Recht)的法学叙事提供全面的理论工具。

数字化的影响半径日益扩大,至少反映在诸如过失这样的传统刑法归责类型中。前文提及的“规范的现实领域”变迁的法社会学概念正好可以用来恰当地解释数字化对刑法过失教义学的影响。数字科技对现实生活的影响至少体现在数字技术给法益带来了新型的风险,而这也引发了相应的刑法上注意义务的问题。套用刑法风险教义学的术语,这意味着,即使不设立刑法严格责任(Strict liability-Haftung)这样的创新(责任)形式,人工智能系统前所未有的风险性质(即机器学习场合的自主性风险)也可能会引发刑法上的过失犯解释与适用的变迁。这里所说的人工智能风险教义学的动向则构成了本文最后一部分的主题。



四、刑法上创新责任的四种基本模式(人工智能的风险教义学)



人工智能系统的特殊风险属性来自自主性风险、(人机)复合风险以及联网风险。复合风险(Verbundrisiko)涉及人与机器在所谓社会技术系统(sozio-technische Systemen)中的互动。联网风险源于多个电脑系统同时参与同一损害事件。笔者将在下文详细展开讨论的自主性风险则涉及自我学习系统“在无用户干预的情况下,自发地改变自己的行为,以作为对外界印象的回应”,从而自主反应的能力。由于自我学习系统不依靠用户输入,而仅仅依靠“自我感知”,从而能够自发地“在不确定的状况下作出决策”。自我学习系统不断增长的自主性导致了行为可预见性方面的局限,而且提出了以下问题,即从“可预见的不可预见性(vorhersehbare Unvorhersehbarkeit)”中能够得出制造者、编程者与运营者的哪些特殊注意义务。由于人工智能系统的决策根据在科学上的可解释性存在局限,这也导致了义务违反性关联方面的证明问题。在此背景下,许多学者认为,刑法上面临着责任漏洞(responsibility gap)的危险,这也对刑法上的罪责原则(Schuldgrundatz)造成了压力。因此,人们一方面讨论在制造者与运营者的责任方面突破罪责责任,即引入严格责任(strict liability)。另一方面的讨论则涉及将人的责任能力扩张到机器人以及软件代理(Software-Agenten),以此实现将责任从人转移到技术上的效果。


(一)责任向技术转移(机器人刑法)?


在我看来,有关“智能”软件代理可能存在的刑事责任的讨论正朝着一个错误的方向发展。对此,关键的原因并不在于将(刑)法上的答责能力与作为人的特殊资质、内在的心理状态或自由意志、自主性在哲学上严苛的理解相联系。可答责的法人就是一种社会的、特殊法律上归责程序的结果,这样的归责程序遵循的是一种功能上的逻辑。如果只是将“人格属性(Personalität)”视作罪责谴责的根本要素,那么就不必要将其限定在人类主体中。相反,法律上的归责才将人构造成为法律责任归属的可能对象。另一方面,这也并不意味着作为可答责法人的地位归属可以肆意进行;相反,无论是支持还是反对承认非人类主体法律上可答责性的观点都必须按照相关法律领域的功能逻辑标准来进行判断。在此背景下,正如托伊布纳(Gunther Teubner)所提议的那样,或许有充分的理由能够支持在民法中引入软件代理的部分法律能力。这对民法而言意义在于,正如有关事务辅助人(Verrichtungsgehilfe)的条文(《德国民法典》第831条)承认的那样,应当将软件代理的有责行为归责于人工智能系统的人类运营者。但是,在刑法中却不能照搬这样的构造。在刑法中,承认机器人的答责能力恰恰不适合从机器人背后的人类主体入手,因为刑法并不允许对单纯的他人过错承担责任。相反,机器人作为“自我答责的第三人介入(eigenverantwortliche Dazwischentreten)”则适用于为机器背后的人类行为人开脱责任。

但是,从刑法的角度来看,即使机器直接承担刑法上的责任,这似乎也是功能不全的,因为,将处罚人工智能系统理解为对违反旨在保护法益的举止规范的回应(以巩固规范)是没有意义的。因为这是以人工智能系统具备满足或不满足规范期待的能力为前提的。即使是最现代的自我学习人工智能系统,也不能对其“举止”进行规范上的激励。它并不会在价值权衡得出“有利理由(gute Gründe)”之后作出决定;相反,它在外部世界的行动必然基于以计算机为媒介、以模式识别为目标的数据评估,而这些数据要么来自第三方提供,要么是人工智能系统通过自己的观察而获得。虽然自动驾驶汽车可以通过编程避免与人类道路交通使用者发生碰撞,但是,它却不能“理解”禁止杀人或禁止身体伤害的规范意义。如果由于自动驾驶汽车的错误而导致了致人死亡的交通事故,那么这可能会使我们对技术能力的想象感到失望。此外,这只是一种认识上的期待(kognitive Erwartung),我们将在未来修正这种期待。只要我们同时还坚持这样的期待,即参与道路交通的自动驾驶汽车应该能够识别人类障碍物,并及时刹车,那么,这里(现在已经是规范上)的期待指向的便是那些负责对车辆进行设计、编程以及审批许可的人类。

  除此之外,机器人刑法会在刑事政策上出现功能失调,因为它可能会草率地为机器背后的人开脱责任。诚然,机器背后的行为人仍然有可能构成过失的同时犯(fahrlässige Nebentäterschaft)。然而,根据基于分工合作的过失犯教义学理论(Fahrlässigkeitsdogmatik für arbeitsteiliges Zusammenwirken),人们必须承认答责领域的可分性(Teilbarkeit der Verantwortungsbereiche)以及信赖原则的适用。这会造成将人的责任转移到机器上的局面,从而掩盖了人类决策对于现代人工智能系统运作的核心性地位。机器人刑法因此也就违背了刑法应有效保护、以防止不被容许的人工智能风险的利益。

  根据上述结论,引入“机器人”刑法并不是刑事立法的明智选项,在我看来,即便在未来开发出所谓的“强人工智能(starke künstliche Intelligenz)”,本结论也仍然适用。“强人工智能”的概念使用并不统一。它与“超级智能(Superintelligenz)”以及“奇点(Singularität)”等概念存在竞合关系。实际上,“强人工智能”概念针对的是可设想的未来人工智能形式,该形式的人工智能解决问题的能力并不限于特定的应用领域(通用智能),它能够在没有用户输入的情况下自主地改进与发展(自主学习能力),并以这样的方式到达与人类同等的“智能水平”,并且将长期超越人类的“智能水平”。根据博斯特罗姆(Nick Bostrom)的观点,强人工智能或“超级智能”的决定性特征在于,它与人类相比获得了“战略上的优势(strategische Vorteil)”,因此不再受到人类控制。

  如果按照这样的分析,那么,从规范的角度来看,“强人工智能”将首先导致一种更高层级且不可控的安全风险。由于机器人刑法总是过于滞后,所以机器人刑法似乎不适合对抗这种据称由(未来)可能的机械性超级智能所引发的关乎(人的)存在的风险。特别是那些相信“超级智能”优于人类的场景是对未来的现实预测的人看来,通过针对机器的刑罚威慑来控制上述超级智能的想法似乎非常幼稚。为什么一个优于人类并具有战略优势的人工智能要受到人类制定的刑事法律、刑事追诉机构以及刑事司法的影响?相反,法律控制机制的目标应当是,从一开始就防止超级智能的出现与“释放(Freisetzung)”。这是以预防原则为基础的技术行政法(Technikverwaltungsrecht)的传统任务,在必要情形下,也可以通过设置刑法危险犯的方式来配合技术行政法。因此,在技术与刑法上控制“强人工智能”的受众对象,无论如何仍然还是在技术背后进行运作的人,而非技术本身。

最后,我想再简要谈谈以下论点,即只有当自我学习的人工智能系统发展到我们可以将其理解为与人类相类似的“道德主体”时,机器人刑法才变得必要且有意义。假设我们认为,以这种方式理解的“强人工智能”会发展出构建自身规范上和法律上价值观的能力,并且它们会将其“行为”建立在这些价值观之上。那么,事实上我们必须赋予这样一种实体具有辜负规范期待的能力,这样,刑法稳固规范的功能(die normstabilisierende Funktion)原则上才能有用武之地。在此,反对机器人刑法的理由基于实践层面:为什么被赋予理性自我决定能力的人工“超级智能”偏偏要臣服于“缺陷物种”人类所创造的现行刑法?对人类来说,决定性的问题可能是,文明开化的自主机器将赋予人类什么样的道德地位和法律地位。



(二)严格责任:容许风险的刑法责任


相比之下,针对人工智能系统所引发的法益侵害,引入严格责任(strict liability)意义上的、不以过错为前提的刑法责任,则旨在针对机器背后的人类行为人。在民法的讨论中,针对自主性软件代理的制造商和(或)经营商而规定不以过错为前提的危险责任被认为是一种大有可为的解决方案。民法上的危险责任(Gefährdungshaftung)旨在考虑社会对技术创新的需求,但这并不是将损害风险强加给遭受人工智能系统不可预见后果的随机的受害人,而是将损害风险强加给那些从创新中获得经济利益的人。因此,这同时也将风险评估(的任务)委托给了制造商方面,这不仅可以调控注意(程度)的水平,而且还可以调控积极性的水平。在刑法上,通常会援引罪责原则来否定不以过错为前提的结果责任。这在结论上是具有说服力的,但是并没有充分、具体地指出,在刑法中,应用人工智能系统所造成侵害后果的因果责任问题究竟体现在哪里。对此,关键的着眼点在于,这里涉及的或许是一种针对允许的、没有违反义务的风险创设之后果的刑法责任。这不禁让人想起20世纪50年代末对有关问题的讨论,即除了故意与过失之外,是否还应当在刑法中将“风险行为(riskante Verhalten)”承认为有责的行为方式与归责根据。刑法中的风险责任会在例如完全昏醉(Vollrauschtatbestand)这一构成要件(《刑法典》第323条a)与参与斗殴罪(《刑法典》第231条)等各罪中进行讨论。除此之外,还会援引自陷禁区(versari in re illicita)的归责原则,根据该原则,行为人由于“在不允许的事项中逗留”,即使他没有过错,也要对所有后果承担责任。但是在上述例子中,可罚性也是以行为人创设了不容许的风险为前提,在完全麻醉状态(等仍然存在争议)的场合,可罚性则以非社会相当的、非期望的风险创设为前提。只有在这样的背景下,并且在万不得已时,才可在此认为将上述刑法构成要件中出现的结果构建为客观处罚条件是合法的。由此,目前考虑将危险的人工智能系统投入流通所出现的结果认定为客观处罚条件的方案将会面临的问题是,这些方案必须首先证明投入流通行为的不被容许性(Unerlaubtheit)。这首先以制定一个抽象危险犯为前提,即“在并非充分安全的情况下将危险产品投放市场”。相比之下,不违反义务地制造、销售或运营人工智能系统的行为则是一种容许的、社会期待的行为。一个容许的行为在概念上就已经不可能辜负法律上的行为期待,因此,也就不需要在刑法上确证规范的效力(Besttigung der Normgeltung)。正由于此,应将刑法上针对容许行为的风险责任视作与刑法体系相异的突破,而同样加以否定。


(三)危险刑法:将科技创新作为不容许风险


  与针对容许风险的刑法结果责任不同的是第三种以抽象危险犯为基础的危险刑法模式。在此模式中,行为人通过在市场上投放或运营智能机器,创设了对刑法所保护法益的不容许危险,而因此承担责任。更确切地说,是通过抽象危险犯将创设风险的行为就已经定型为不被容许的,而不考虑结果是否发生。考虑到科技法在支持创新与最小化风险之间此消彼长的功能,(制定)抽象危险犯是存在问题的,因为抽象危险犯是片面敌对创新的。因此,只有在必要时,才可以考虑按照科技法上的预防原则,在特殊的领域范围内使用抽象危险犯对人工智能进行规制。尽管如此,这也开启了刑事立法者明确人类对技术后果答责的可能性,即禁止特定的决策,例如禁止将生或死的决定授权给人工智能系统,或是禁止将具有高度损害可能性的人工智能系统投入流通等。

  鉴于人工智能系统在此被视作创新的风险技术,文献中有学者提出将传统风险管理的规制策略作为人工智能规制“蓝图”的建议,便也就不足为奇。这方面的例子既包括对自主武器系统的禁止,还包括借鉴现有对高程度或完全自动驾驶功能汽车的规定(《德国道路交通法》第1条a),在无特殊许可前提下将自主护理机器人投入市场的行为规定为可罚的危险犯。最后,这里还包括(以类推基因技术法的方式)对所谓“强人工智能”或“超级智能”出现和释放的危险作出法律上的预防。因为抽象危险犯充其量也只是一个在特定领域中可以接受的(未来)解决方案,因此,在未来,针对人工智能系统的刑法创新责任还必须主要按照一般过失教义学的标准(Magabe der allgemeinen Fahrlssigkeitsdogmatik)来进行判断。


(四)过失:不容许风险的刑法责任


与将人工智能系统投入市场或运营有关的刑法过失责任的前提是,行为人个人对投入市场或运营人工智能系统(行为)所启动的可能造成损害的流程具备预见可能性和避免可能性。就此而言,法律或产业协会针对人工智能系统特殊自动化定义的行为标准与质量标准可以提供杜特格(Gunnar Duttge)所要求的“诱因要素(Veranlassungsmoments)”。意义上的参照。这方面的一个例子是《德国道路交通法》对具备高程度或全自动化驾驶功能汽车的规制(《德国道路交通法》第1条a与第1条b)。但是,除此之外,基本没有关于人工智能发展的有约束性的标准规范。正如袁天宇(Tianyu Yuan)在一篇充分结合了计算机科学内容的文章中所表明的那样,在人工智能系统的研发中,这些(法律)没有规定的领域也存在一系列典型的注意义务违反(现象)。只要存在这样的违反注意义务的情况,那么后续致死受伤或死亡形式的人工智能系统自主性风险的实现,似乎就不能被视作“技术故障”;相反,只要损害发生对于编程人员或生产商而言是个人可预见且可避免的,那么上述自主性风险的实现便可作为不容许风险创设的后果而归责于编程人员或生产商。一般来说,可以区分例如建模错误(Modellierungsfehler)、训练数据选择场合的错误以及对所获结果安全性评价场合的错误。这些错误属于传统的生产错误(Produktionsfehler),其损害潜力通常从一开始就可以识别,而不是像所谓的开发错误(Entwicklungsfehler)那样,只有在事后人工智能系统的运营过程中才可以识别其损害潜力。就此而言,在法庭实践中,对人工智能系统相应技术运作的确切认识将是决定性的,为此,法律适用者最终还是需要依赖外部的计算机科学专业知识。

  格勒斯(Sabine Gless)和其他学者已经详细介绍了,对于人工智能系统投入市场之后的阶段,应当适用刑法产品责任的原则,即制造商有对事后认识到的,或是具有认识可能性的人工智能产品的风险错误开发作出反应的保证人义务。

  首先,就过失结果不法而言,在应用机器学习系统(Machine-Learning-Systeme)的情况下,义务违反关联(Pflichtwidrigkeitszusammenhang)的证明会存在问题。在符合义务的编程场合,确认人工智能系统“行为”的假设性发展是必要的,但这种必要的确认在基于功能的机器学习场合却尤其困难。因为,在这一方面,即使可解释人工智能(explainable AI)领域已经有了一些新的研究成果,人工智能系统在很大程度上仍然还被视作黑匣子(Black Boxes)。因此,认为通过例如应用计算机模拟等人工智能的数学设计能够减轻义务违反关联证明的难度,这样的评估或许是过于乐观了。尽管如此,这样的思考还是为我们提供了一个正确的方向:机器行为(Machine Behaviour)这一可靠的跨学科研究(领域)或许能够有益于解释那些对刑法过失归责而言必要的因果关联。

  在应然法上(de lege ferenda),如果像希尔根多夫(Eric Hilgendorf)建议的那样,将没有充分安全保障的危险人工智能系统投放到市场所造成的结果设定为客观处罚条件,那么这也可以消除义务违反性与结果之间的证明问题。由于希尔根多夫并不想让将危险人工智能系统投入市场的行为普遍受到刑法处罚,而只想将刑事处罚限制在“没有充分安全保障”的情形,因此,他的模式并没有使过失的证明变得多余。本质上说,希尔根多夫的建议似乎更多是为了减轻过失归责中的证明负担,因为,如果结果的发生只是客观处罚条件的话,那么义务违反关联的证明也就没有了必要。另一方面,还值得注意的是,在例如医事刑法等其他(过失犯的)应用领域中,过失犯中义务违反关联的确认往往也存在困难,但这并不被视为刑事处罚中不可容忍的漏洞。以放弃义务违反关联证明的形式引入严格责任,有可能会消融过失构成要件的边界,因此这也会在人工智能的语境下存在疑问。只要立法者不通过真正抽象危险犯的方式在特定技术或应用领域中普遍禁止人工智能系统投放市场[对此参见本章第(三)节],那么,只有当可以依据过失一般原则将(产品损害)归责于制造商时,制造商才对产品造成的损害承担责任。

  最后,如果我们从人工智能系统(例如自我学习的护理机器人)运营者的方面来看,那么,无论如何也可以在此定义具体的注意义务。这些具体注意义务遭到违反时,特定实害结果的发生通常在客观和主观上都是可预见的。此时,摆在面前的问题是,在诸如护理等领域,运营者是否被允许、以及在何种程度上被允许将任务委托给使用过程中不受监控的人工智能系统。无论如何,运营者都有义务持续地监控人工智能系统是否在认真地完成任务,并对错误开发(Fehlentwicklung)作出应对。学习型的人工智能系统恰恰不是人们可以根据信赖原则给予信任的、行为时可以答责的个人;相反,人们可以借鉴刑法判例对动物危险的表述,因为学习型人工智能系统“无法理性地操控其行为,而且一般是无法预测的”,所以学习型人工智能系统更多的是一种危险源。对于这样一种“危险源”,“为了共同体生活的安全,那些危险源出现在其社会支配领域中的人……要对此负责”。因此,面向人类的人工智能系统的刑事责任也证明了,将过失作为刑法创新责任的基本模式是恰当的。



五、小结


本文对人工智能风险教义学思考的结论是,高度现代的人工智能系统的革新性影响还处于刑法对创新风险归责的界限内,或者说也应当将高度现代的人工智能系统的革新性影响控制在刑法对创新风险归责的界限内。对于人工智能所诱发的损害,刑法恰当的应对不是将责任转移给机器,也不是引入不以过错为前提的严格责任。相反,一方面,应该更多地在公共技术与安全法中定义授权自我学习的自动装置在未知情形下进行决策的绝对法律界限。另一方面,对所有人工智能系统的单个应用领域都应当参考一般过失教义学,探究机器后人类主体的个人责任。这同时也说明,不得从技术创新与刑法创新两者必要因果关联的意义上理解革新技术的概念。相反,正是对技术革新潜力的洞察,才使对“风险刑法之风险”的批判性反思成为可能。换言之,应当理解的问题是,在应对数字化而作出积极改变的过程中,刑法究竟被动地遭遇了什么。



本文刊于《苏州大学学报(法学版)》2022年第3期,第48—61页,为阅读方便,此处删去原文注释。如有媒体或其他机构需要转载,请后台私信联系授权。

本期精彩

【新刊速递】《苏州大学学报(法学版)》2022年第3期目录和摘要

石佳友、王焓 | 产权保护法治框架中的公平原则

朱虎、张梓萱 | 买卖不破租赁:价值的确立、贯彻与回调

沈伟、冯硕 | 全球主义抑或本地主义:全球数据治理规则的分歧、博弈与协调

责任编辑:王 

图文编辑:张盼盼

  核:程雪阳





《苏州大学学报(法学版)》简介


早在1922年,东吴大学法学院创办了中国最早的法学期刊之一——《法学季刊》(今年正值创刊100周年),分为中文版和英文版,是20世纪前期中国与西方法学界的重要交流媒介。为传承和弘扬老东吴法学教育的传统和精神,苏州大学法学院于1996年创办了院刊《东吴法学》,直至2013年秋一共出版了27卷。经校内资源整合并经国家新闻出版总署批准,《苏州大学学报(法学版)》于2014年2月正式创刊,它是《东吴法学》的继承和延展。自创刊以来,本刊秉承“养天地正气,法古今完人”之校训,以学思之纯正、为文之旨趣为取向,注重法理,恪守学术,主要包括本期聚焦、数据法治、学术专论、域外译文、经典判例等栏目。


本刊纸刊投稿系统地址:

http://szfx.cbpt.cnki.net


本刊微信公众号征文邮箱(征稿启事)

sdfxbwxzw@126.com





苏州大学学报微信公众号矩阵 



苏州大学学报

哲社版

苏州大学学报

教科版

苏州大学学报

法学版

继续滑动看下一个

比扬·法塔赫-穆加达姆 | 刑法中的创新责任:在严格责任、过失与容许风险之间

唐志威译 苏州大学学报法学版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存