查看原文
其他

人工智能汽车交通肇事的刑法应对:以Uber交通肇事案为研究视角

青法平台 青苗法鸣 2020-12-09


作者简介:陈禹衡,东南大学刑法学博士研究生,东南大学刑事法研究所研究人员。


文章来源:微信公众号“中外刑事法前沿”,本文发表于《法治社会》2020年第3期,因篇幅较长,已省去注释。



摘要:人工智能汽车的发展方兴未艾,但其同时也对交通秩序产生威胁,在Uber交通肇事案中,检方排除了公司责任而准备追究安全员责任。人工智能汽车分为强人工智能和弱人工智能,弱人工智能汽车不是法律主体,其生产厂家未尽到合理注意义务需要负有责任,安全员则应该负有差别化的注意义务。强人工智能汽车应该视为法律主体,对强人工智能自主学习导致的犯罪行为应该分情况讨论,对于其由于算法偏见导致的犯罪行为生产厂家也要负有责任,黑客入侵后则依据被感染程度的强弱讨论其与黑客的关系,以更好地帮助人工智能汽车从弱人工智能进化到强人工智能。


关键词:人工智能汽车; Uber; 交通肇事; 弱人工智能汽车; 强人工智能汽车



伴随着人工智能技术的崛起和完善,人工智能系统方兴未艾,正在渗入我们日常生活的方方面面,但是其中最具创新性和变革性的便是人工智能系统引导下的自动驾驶汽车的投入使用。如果其能够大规模适用,将会对我们的交通生活方式产生极大的冲击和改变,而对于可能出现的人工智能汽车交通肇事行为,刑法应对的研究才刚刚兴起,尚缺司法实践经验。2018年3月18日美国亚利桑那州坦佩市,发生了世界上第一起人工智能汽车交通肇事的事故,导致一名女性不幸身亡。由于人工智能技术的加持,以及Uber公司和受害者家属达成了赔偿协议,很多人认为该事故不会走司法程序。但是时隔一年,2019年3月5日,该案所在地的检察官却判定:Uber公司对于去年三月份发生的交通事故不负刑事责任,但是对于当时负责车辆正常行驶的驾驶安全员,其是否负有刑事责任将进行进一步调查。对这一交通肇事案件进行分析,可以为完善人工智能汽车交通肇事的刑法应对提供司法实践经验。


一、Uber人工智能汽车交通肇事案

的细节分析

Uber此次发生的交通肇事的情节较为复杂,涉事车辆事发时经过一段没有设置信号灯或者监控摄像头的三岔路口,事故的分析只能依靠车辆自带的监控录像设备,结合美国国家运输安全委员会的初步报告和现阶段检察官透露的信息,该案中值得分析的细节有如下几点。


第一,Uber的涉事车辆为沃尔沃XC-90SUV,这辆车本身并非专门设计的人工智能汽车,而是经过改装的人工智能汽车,人工智能软件系统和距离识别感应系统都是后来由Uber公司加装的,并装配车顶激光雷达、红外传感器等,在这种现阶段主流装配方案的改造下,该车的自动驾驶层级系数达到了四级运行设计领域,安全驾驶员不参与驾驶行为而仅在系统出现脱离情形时才负有接管驾驶的责任,根据消极责任理论的观点,此时安全驾驶员的责任比重较轻。


第二,事故发布的监控录像显示,涉事车辆在撞人前已经发现了受害人,车辆的传感器在撞击发生前6秒已经检测到受害人的生命体征,并且系统自带的处理器分析出还有1.3秒事故即将发生,但是涉事车辆此时却无法进行急刹车,系统在这里的缺陷是Uber公司的人工智能汽车在计算机控制下没有启用紧急刹车的权限。车载数据回放显示,系统在当时提供了紧急制动的请求,车辆人工智能系统的权限在这里和安全员的权限产生了冲突,也就是算法设置的纰漏导致了事故的发生。


第三,当地警方对安全员进行的调查显示,该名安全员拉斐尔·瓦斯克斯在事故发生时观看了“美国好声音”,根据Hulu网站显示,在案发之前,瓦斯克斯的视频网站账户观看了至少40分钟的视频节目,并且最终播放停止的时间是9点59分,也就是事故发生的时间,因而有理由相信安全员在履职期间处于玩忽职守的状态,并且其对于紧急刹车的优先权限可能导致了人工智能系统对于紧急制动的请求被忽视。


第四,根据美国乔治亚理工学院的研究,现阶段的人工智能车辆系统存在着算法偏见的问题,人工智能系统诞生伊始输入的各种数据、测试值等可能导致了系统自身更加善于识别肤色较浅的人。研究人员对于行人的图像数据进行采集,并使用菲茨帕特里克量表(Fitzpatrickscale)进行分析,发现了深色皮肤的人的检测率要比浅色皮肤的人低5个百分点,这种算法偏见的存在导致了对人工智能汽车安全性和普适性的质疑。


第五,在该案的审判过程中存在的另一处细节是,事故发生地为亚利桑那州坦佩市,且事故发生路段是一段沙漠景观,当地政府在此处构建了X形的砖路,这一砖路在本地人的认知里是政府鼓励人们横穿马路的象征,可以被视为一种约定俗称的习惯。但是很明显的是,Uber的人工智能汽车导航系统中并没有输入此类习惯的提示,这种约定俗成的交通习惯对于人工智能汽车的安全行驶以及交通肇事后的刑事责任的分配形成了挑战。


通过对于以上五点案件细节的分析,可以发现该起人工智能汽车交通肇事事故并非一起简单的交通肇事,其中反映出了人工智能系统的机器学习问题、强弱人工智能之间责任的权重分配问题、人工智能和人类监督之间的权限冲突问题、人工智能汽车的算法偏见问题、自动驾驶新技术对人类习惯的接受和吸收问题等,对这些问题的解决,有助于未雨绸缪,为我国人工智能汽车的推广和制定其交通肇事行为的法律规制提供经验,并且完善刑法典中对于交通肇事罪以及危险驾驶罪罪名的规范。


二、弱人工智能汽车交通肇事

的刑法分析

在本次Uber人工智能汽车交通肇事的事故中,肇事车辆是一辆弱人工智能汽车。强弱人工智能汽车在技术上划分的鸿沟在于“由反射式智能转换成自律式智能”,很明显在此案中涉事车辆的人工智能程度仅仅在弱人工智能阶段,其主要行为范式是“反射式智能”。在Uber公司的改造下,该车通过加装了激光雷达和红外传感器等设备形成了初步的发射应答回路,其基本的操作路径是通过激光雷达发射红外线,当红外线接触到障碍物进行反射,反射回来的信号由数据分析器分析得出障碍物的距离,并对得到的数据处理后做出相应的应对措施。在Level3级别的汽车的运行中,车载人工智能系统并未获得汽车驾驶过程中的全部权限,而是采用人机交互的方式,安全员的存在可以视为车辆自动驾驶过程中的“安全阀门”。但是在此次事故中,发生肇事的一个重要原因就是人工智能紧急制动的权限和安全员之间的权限出现冲突,导致最终刹车不及时。此次事故中各方主体所负的刑事责任,弱人工智能汽车的法律主体是否构成,都需要结合案情进行详细的探讨。


(一)弱人工智能汽车的法律主体资格分析

对于弱人工智能汽车刑事责任的分析,前提是讨论弱人工智能汽车是否有所谓的法律主体的资格,也就是其是否具备“法律人格(legal personality)”,而讨论弱人工智能汽车的“法律人格”,则必然绕不过作为其构成基础的“电子人格(electronic personality)”的概念。对于是否授予弱人工智能汽车“电子人格”,并赋予其“法律人格”的看法,学界对此看法不一。


支持者认为“电子人格”的概念在于弱人工智能产品已经具有了一定的行为权和决定权,对于面对的事项可以有相应的决策权,并且能够通过妥善地合理使用自主权而被法律赋予一定的权利与义务,最终被授予“电子人格”的法律地位,而这些“电子人格”的参与方的集合,最终构成了弱人工智能的法律人格。在欧盟法律事务委员会2016年发布的《欧盟机器人民事法律规则》中,已然以提出决议的方式探讨赋予人工智能机器人电子人格的可能性,而这一决议一旦通过,则弱人工智能汽车会被最终赋予法律人格,并且对此次交通肇事负有相应的刑事责任。


持反对观点的学者主要是认为弱人工智能不能够适应法律规范的规制,法律规范的规制是通过人在了解了法律规范的要求之后,对于违反法律规范所造成的后果的厌恶而遵循法律规范的要求行事。而弱人工智能汽车显然不具备这一功能,康德曾经对于人格提出了观点,认为“人,是主体,他有能力承担加于他的行为,因此道德的人格不是别的,其是受道德法则约束的一个理性人的自由”。在康德的观点中,人格的特征在于受到规范的规制,但是弱人工智能的工作范式是“反射式智能”,并非“自律式智能”,弱人工智能汽车并不具备对于违反法律规范造成后果的厌恶,因而也不会做出遵循法律规范的决定,不应该认定其符合法律主体的构成资格。


本文认为弱人工智能汽车不应该认定为法律主体。第一,从理论上说,弱人工智能汽车缺乏法律主体所必须的思维和处理模式,其对法律规范的遵守是机械的、缺乏创造性的,这种形而上学的人工智能主体不具有自主意识而需要深度学习,即使强行赋予其电子人格,也是一种法律拟制的人格,导致法律主体认定标准的混乱。第二,从实务上来说,本案中肇事车辆不仅没有自主意识,甚至在意见反馈之后,对于正确的决策都没有选择权,其做决定的优先度远低于安全员的权限,更像是强人工智能的半成品或者是处理前端,这就意味着在剥夺了基本的决策权限之后,此时的弱人工智能汽车仅仅是Uber公司安全员的“附庸”,不具备成为法律主体的资格。


(二)弱人工智能汽车公司的刑事责任分析

在此次交通肇事中,由于弱人工智能汽车的本身不具有法律主体的资格,因而也不能够对发生的交通肇事承担刑事责任,但是Uber公司对交通肇事是否负责,当地检方做出的Uber公司不负刑事责任的结论是值得商榷的。“刺破人工智能面纱”的理论可以为弱人工智能汽车交通肇事的刑事归责提供思路,透过人工智能技术,弱人工智能汽车的技术核心和控制归于Uber公司,其可以看作是Uber公司控制下的运输工具,由于弱人工智能汽车导致的交通事故应该由其背后的实际控制者Uber公司担任法律主体。


Uber公司作为肇事车辆的改装公司,在此次交通肇事中对于肇事车辆的影响作用远远大于汽车的原始制造公司沃尔沃公司,沃尔沃公司只是汽车的原始制造企业,若没有明显证据证明是汽车的基础性能发生故障导致事故,则沃尔沃公司对于此次交通肇事不负责任。Uber公司对于涉事车辆的改造是全方位的,通过加装传感器、人工智能系统的方式赋予了人工智能汽车的新生,所以可以视为Uber公司制造了这辆弱人工智能汽车并对车辆可能存在的设计缺陷负责。具体到本案中,2016年9月美国交通部出台自动驾驶技术检测和应用指导性框架《联邦自动驾驶机动车政策》(Federa Automated Vehicles Policy),其中规定了15项有关自动驾驶技术安全性的评估标准,而此次事故中Uber公司明显在“物体和事故的探测和反应(OEDR)”这一项存在设计缺陷。


在肇事车辆的初始人工智能系统中,Uber公司的过失之处在于对初始人工智能的OEDR算法设置存在纰漏。在车辆的行驶过程中,反馈信息处理器的权限低于安全员的权限,并且在面临可能到来的危险时没有做出紧急制动的权限,这种算法上的缺陷将伴随着自动驾驶车辆的运行生涯。当研发者、制造者、销售者在明知产品有缺陷的前提下,为了人工智能汽车的运行和推广,生产不符合保障人身和财产安全的国家标准和行业标准的人工智能汽车,造成严重后果,应该追究相关行为人的刑事责任。但是考虑到弱人工智能汽车的技术进步性和风险性,应该在一定程度上容许其所具有的危险性。由于人工智能汽车的生产厂家承担了更多的风险,其应该承担严格责任,除非生产厂商能够证明自己在生产过程中已经达到了现有人工智能汽车生产标准要求,则对发生的损害后果不用承担刑事责任。


(三)安全员的刑事责任分析

根据当地检方的报告以及案发地的监控显示,在此次交通肇事中该车辆的安全员对于事故的发生具有不可推卸的责任。首先,是安全员的身份定位意味着其不是传统意义上的驾驶员,他并不直接参与弱人工智能汽车的驾驶,但是却通过决策的判断来决定车辆的运行,其身份更像是弱人工智能汽车行驶的“安全阀”,在车辆的行驶过程中,安全员除非出于不可抗力的原因,否则任何过失行为造成的损害安全员都应该负有刑事责任。其次,视频网站的浏览记录显示,当时的车辆安全员瓦斯克斯没有很好地履行安全员的义务,处于玩忽职守的状态,这里安全员构成了疏忽大意的过失,没有起到注意义务,符合交通肇事罪的犯罪构成要件。最后,此处对安全员提出的注意义务是指安全员对某一具体行为可能导致的具体结果的注意和避免义务。注意义务的观点有否定说和肯定说,否定说的观点指注意义务是具体的,对于行为和导致的结果都是具体的,只有人工智能车辆的安全员才能面对具体的车辆运行情况,也才有所谓的注意义务。肯定说认为此处的注意义务是抽象的,具备相应的特征,并且具有预测性和可期待性,肯定说将注意义务的范围扩展到了车辆的制造商等,即汽车的制造商即使符合人工智能汽车驾驶标准,也要为未来可能发生的交通肇事事故负责,这种观点会有损刑法的谦抑性,因而本文采用否定说的观点,应该由安全员对交通肇事罪负刑事责任。


该案中的安全员虽然构成了交通肇事罪,但是在人工智能汽车蓬勃发展的今天,对于安全员注意义务的一味提高并不利于这个技术的健康发展,安全员注意义务的要求不宜过高。既然人工智能车辆允许乘坐者可以处于较为放松的状态,就不应该按照传统驾驶员的注意义务标准来要求的安全员。但是与此同时,美国很多地方都出台规定要求人工智能车辆配备安全员,如美国的华盛顿特区、内达华州等都要求只有配备安全员的人工智能车辆才能上路。有鉴于此,本文认为对安全员的注意义务应该采用差别化的注意义务,在车辆平稳运行时安全员的注意义务较低,可以从事其他行为,但是在事故高发路段或者人工智能系统已经反馈了可能存在危险的情况时,则要求安全员起到高度注意的义务。华盛顿特区法律中规定,自动驾驶车辆的安全员在面对危险情况时,必须坐到控制座位上,准备接管车辆的行驶。内华达州对于自动驾驶和人工驾驶状态下的责任区分不同,要求无人车驾驶者也要拥有驾照。对安全员实行差别化的注意义务,才能够在弱人工智能汽车占据产业主流时,在交通肇事中厘清各方的刑事责任,保障安全的同时为强人工智能汽车的发展做好铺垫。


三、强人工智能汽车交通肇事

的刑法分析

强人工智能汽车是弱人工智能汽车未来发展的必经之路,强人工智能汽车将会彻底解放驾驶员的双手和大脑,其不同于弱人工智能汽车之处在于具有了“自律式智能”,强人工智能汽车可以在已经设计和安排好的程序范围内进行自我学习,通过自身培养的独立思考能力对道路的驾驶情况进行预判。整体看来,强人工智能在四个方面对于现在的刑事司法体系造成挑战:一是强人工智能汽车是否能够担任法律主体,二是在强人工智能系统自主学习之后导致的犯罪行为如何应对,三是对于强人工智能在学习之后形成了算法偏见如何进行刑法规制,四是强人工智能在摆脱了人的控制之后,遭受黑客入侵导致交通肇事乃至危险驾驶如何认定刑事责任。


(一)强人工智能汽车的法律主体资格分析

强人工智能汽车不同于弱人工智能汽车,能够通过自主学习对于外界事物形成自己的认知,并且对于外界事物的认知有自己的好恶。按照刘宪权教授的观点,这种强人工智能具有和自然人一样的辨认能力和控制能力,具备刑事责任,可以视为刑事主体,对于其犯罪行为的实施秉持着自主意志,可能且应该承担刑事责任。本文赞同该观点,理由如下:第一,强人工智能具有不断学习和发展的能力,从思维模式上来看经过不断地学习已经能够分辨出遵从规范和违反规范可能造成的后果,其更适合被称为“伦理机器人”。强人工智能汽车是用“人工智能+汽车”的方式取代了“驾驶员+汽车”,既然其掌握了道路交通规则,就必须对违反道路交通规则造成的事故负刑事责任。第二,强人工智能汽车可能通过学习制造“额外的知识”,这里的知识并非原始编程所输入的知识,其范围和性质不可控,随之而来的便是可能造成的刑事风险。强人工智能汽车不仅可能导致交通事故,甚至可能违背“机器人三原则”进行例如危险驾驶这种危害公共安全类犯罪,因此,赋予其法律主体资格可以完善对人工智能类犯罪行为的刑法规制。第三,强人工智能汽车作为法律主体具有可惩罚性,强人工智能汽车中的人工智能部分可以视为人类模拟自身神经网络而构建的个体单位,其产生的想法独立于人类的意志,在交通肇事等事故中,强人工智能汽车由于自身的失误造成的误判对其他自然人或者财物造成损害,对其施加的刑罚可以包括:删除数据、修改程序、永久销毁。强人工智能可以适应变革后的刑罚体系。


(二)强人工智能汽车自主学习导致犯罪行为的刑法规制

强人工智能汽车所具备的自主学习的特性是其具备独立法律人格的基础,这一概念的提出是由约翰·罗杰斯·希尔勒根据计算机和其他处理信息的机器的未来发展趋势创造的,其认为“计算机不仅仅是研究人类思维的工具,相反,其只要运行适当的程序,便可以拥有自身的思维”。但是这一自主学习能力在给其带来人类的思维模式时,也给其未来发展带来了不可预测性,其可以通过日常的学习获得额外的知识,并且在这一过程中产生自己独特的思维模式,如果强人工智能智能汽车在运行的过程中产生了反社会性人格和思维,将会对人类社会的良好运行产生极大的影响,需要未雨绸缪。


强人工智能汽车自主学习导致的犯罪行为主要分为故意类型的犯罪和过失类型的犯罪。过失类型的犯罪主要集中在交通肇事罪,在交通肇事罪中,强人工智能可能因为自身处理数据的不及时、对于数据处理反馈的优先度排序错位、甚至出于降低自身功耗的目的来休眠某些处理器最终导致交通肇事的发生,类似于自然人的过失行为,这一类可以类比“疏忽大意的过失”来予以认定。除此以外,如果强人工智能汽车因为对于新的路况知识以及交通习惯的学习不及时,导致出现交通肇事,诸如在该案中,人工智能汽车对于当地的交通习惯并不清楚,没有意识到X型砖路为鼓励行人通过的标志,导致警惕度不高和数据反馈的滞后,这种类型的过失可以类比“过于自信的过失”。强人工智能汽车的故意犯罪主要集中在危害社会公共秩序和公共安全类犯罪以及侵犯用户个人隐私犯罪。危害社会公共秩序和公共安全类犯罪包括强人工智能通过学习产生了反社会人格,进而选择遵循自身产生的机器思维来危害人类社会的公共秩序和公共安全,包括利用其自身占据的道路交通这一公共资源,扰乱正常的交通秩序,构成以危险方法危害公共安全罪。“在2017年的电影《速度与激情8》中,上千辆强人工智能汽车构成的‘僵尸车军团’对于公共安全构成了极大的破坏,这一视觉特效体现了人们对于强人工智能反社会行为的巨大破坏性的警惕。”强人工智能侵犯用户个人隐私的犯罪涉及出卖乘车人员的交通行程的隐私,交通行程属于个人信息,所以符合侵犯公民个人信息罪的构成要件。


(三)强人工智能汽车算法偏见的刑法应对

强人工智能汽车的诞生之初就伴随着算法偏见(Algorithmic Bias)的问题,强人工智能所依赖的大数据系统需要将大量的历史数据进行分析,在找出此类数据的最大共同特征之后,总结归纳出自身的特点,在面对新的对象时,将新的对象与历史数据总结的特征进行对比,按照其归属的类别提出处理方案,本质上来说,仍然没有走出“人计算人”的思维物化窠臼。人工智能算法的偏见性的内在基因在技术层面的体现多样,包括“偏见进则偏见出(Bias in,Bias out)”“大小样本地位悬殊”等。在此次交通肇事中,算法偏见可能是导致该事故发生的潜在原因之一,因为人工智能车辆可能对于浅肤色的人辨识度更高,这无疑增加了浅肤色的人的辨识反应时间,进而增加了其生存的几率。本案的审判中对于算法偏见没有涉及,但是不代表伴随强人工智能的发展,此类算法偏见的存在会被逐步放大,进而造成更严重的后果。


强人工智能汽车算法偏见造成损害的责任主体有二:第一是强人工智能汽车本身,其作为适格的法律主体应该负有刑事责任;第二是强人工智能汽车的生产厂家。这些生产厂家在制造强人工智能汽车的“大脑”时,如果对于数据质量以及隐含的信息样本处理不当,导致强人工智能在今后的运行过程中产生了算法偏见,此时刑事责任的承担与否要参考生产厂商在这里扮演的角色,如果认为其是“家长与老师”,那么即使强人工智能后续演化出了算法偏见,生产厂商也不应该负有责任,正如不能因为有种族歧视的父母导致孩子有种族歧视的思想而惩罚父母。如果认为生产厂商是强人工智能的“生产者和编程者”,那么则应该追究生产厂商的刑事责任,在其没有尽到合理的注意义务,导致数据样本偏差或者编程纰漏,致使强人工智能汽车产生算法偏见,此时生产厂商应该负有刑事责任。对于此处刑事责任的承担,可以按照莱普利·普鲁诺的算法偏见的分类来分情况讨论,将算法偏见分为:预先存在的偏见、算法程序运行中形成的偏见、算法决策过程中数据的权重不同导致的偏见。如果这里出现的是算法程序运行中形成的偏见,则应该认为生产厂商对算法偏见不负有刑事责任,如果是预先存在的偏见和算法决策过程中数据的权重不同导致的偏见,则本文在这里支持后者的观点,要求生产厂商尽到合理的注意义务,尤其是现阶段主流的人工智能汽车生产厂家较为集中,所以更应该要求其在程序的编译和样本的选取中保持谨慎的态度,避免算法偏见的问题。


(四)强人工智能遭黑客入侵导致危害行为的刑事责任分配

强人工智能汽车虽然拥有自身独立思考的能力,但是对于其应对黑客入侵的防范能力却存在疑问。加州大学圣地亚哥分校的研究团队研究显示,早在五年前就出现了远程入侵人工智能汽车的技术手段,可以在行车过程中对刹车进行控制。2018年12月18日,由腾讯汽车主办的2018全球汽车AI大会,全球著名的白帽黑客Charlie miller也展示了对人工智能汽车的远程控制。这一系列事件说明即使是强人工智能也存在着被黑客控制的风险,但是在两者的关系上,这种控制下进行的犯罪行为是按照共犯论处,还是按照教唆犯论处,亦或是将强人工智能汽车视为一种工具被控制而以间接正犯论处,则需要进行讨论。


第一种观点是认为强人工智能汽车和黑客之间构成普通的共同正犯的关系。在强人工智能汽车被黑客入侵之后,其思维模式已经被黑客所控制,和黑客出于一样的目的进行犯罪行为,因而将两者认为是共同正犯。共同正犯要求两人基于共同实行的意思共同实行了符合构成要件的实行行为,也就是说要求此时强人工智能和黑客具有共同的意思表示,甚至要求其提出自己的意识想法,考虑到强人工智能的思维转换的快速性,不同于一般自然人需要长时间转换思维,因而具有一定的现实意义。


第二种观点是认为强人工智能汽车和黑客的关系是教唆犯和帮助犯的关系。张明楷教授主张教唆犯的教唆对象必须是具有实际责任能力的人,但是对是否达到法定的年龄并无要求。在黑客和强人工智能之间的关系中,如果黑客在感染了强人工智能系统之后,引起了被感染的强人工智能的实施符合构成要件的行为意思,和第一种观点中的普通共同正犯的关系相比,此时黑客对于强人工智能的控制性更弱,而且强人工智能也没有将自己产生的想法与黑客交流的意图,黑客在这里只是单纯地扮演教唆犯的角色,实际造成的损失不可控,实践中此类行为的侵害法益,则主要集中在对计算机信息系统安全的破坏上。


第三种观点是认为黑客和强人工智能汽车之间构成间接正犯的关系。采用这一观点的基础在于认为经过黑客的感染,强人工智能已经处于缺乏辨认和控制能力的阶段,类似于“儿童”,此时的强人工智能既无处理分析数据的能力,亦无进行思考的模式,此时黑客没有必要出现在犯罪现场,也无需参加共同实施,而被利用的强人工智能却欠缺责任,我们并不能够苛求将一个由强人工智能降级成弱人工智能的主体依旧视为具有刑事责任能力的法律主体,此时的人工智能系统不应该负有刑事责任。


以上三种观点在梳理黑客入侵强人工智能汽车之后两者的关系时,各有千秋,究其根本,乃是由于强人工智能在被黑客入侵之后,系统的受损害和被控制程度不同导致的。不同于自然人,人工智能的处理系统和思维模式是被量化的,并且呈现阶梯性的下降,思维模式转变较快,而且具有较强的恢复能力,所以在探讨黑客和强人工智能的关系时,需要参考此时强人工智能出于什么样的思维模式,如果其能够反馈信息并且和黑客交流,应该视为共同正犯;如果黑客只是引起了强人工智能汽车的犯意,则属于教唆犯和帮助犯的关系;如果经过感染的强人工智能汽车已经失去了正常的处理能力趋于弱人工智能化,则可以将黑客视为间接正犯,此时强人工智能汽车不负有刑事责任。


余论

人工智能汽车的发展如雨后春笋,必然会走进千家万户,现阶段弱人工智能汽车已经在很多地方进行道路试验并且准备投入使用,国内百度的人工智能汽车业已悄然进行道路测试,在这样一个人工智能时代里,对于人工智能汽车交通肇事的相关研究显得极为迫切。“刑法上的自由意志包括自主选择能力与反省控制能力两项内容,自主选择能力与深度学习能力相对应,反省控制能力与理性能力不谋而合”,人工智能汽车的发展必然会面对此类的争议,沃尔沃的CEO汉肯·塞谬尔森指出“制约人工智能汽车发展的最大障碍是监管而非技术”,而对人工智能汽车的监管首先需要对人工智能汽车交通肇事的事故进行分析。此次Uber的人工智能交通肇事案给人工智能汽车交通肇事的刑法应对提供很多研究视角,包括责任的分担、人工智能技术的缺陷导致的事故、安全员的责任如何界定,并且为强人工智能的进一步发展研究提供刑法应对的预防观点。刘宪权教授将人工智能面临的问题分为弱人工智能的“内忧”和强人工智能的“外患”,只有防患于未然,才能解决“内忧与外患”,促使人工智能汽车早日安全有序地投入使用。



推荐阅读

AI时代,法律行业的变革静悄悄

大数据背景下公民个人信息刑法保护的问题

跨境数据流动的国际规制探析与中国因应

投稿邮箱:qmfmbjb@sina.com

主题篇幅体例

青苗学人交流群

长按扫描二维码添加青苗微信号,加入青苗学人交流群,一同交流、分享!


本文责编 ✎ Zorro

本期编辑 ✎ Ben

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存