冯珏:自动驾驶汽车致损的民事侵权责任 | 第五届中国法学优秀成果奖
编者按:日前,中国法学会发布第五届中国法学优秀成果奖评选结果公告,中国社会科学院法学研究所两项成果入选,冯珏教授的论文《自动驾驶汽车致损的民事侵权责任》荣获三等奖。中国法学网公众号特编辑推送该论文全文,以飨读者,欢迎您分享交流。
作者 | 冯珏,中国社会科学院法学研究所编审,中国社会科学院大学法学院教授。
来源 | 《中国法学》2018年第6期。为阅读便利,注释从略,建议阅读原文。
摘要:作为人工智能技术一大应用的自动驾驶汽车所获得的自主性具有纯技术本质,依该自主性,不能合乎法理地得出应赋予自动驾驶汽车以法律人格并由其自负责任的结论。自动驾驶汽车逐渐获得技术意义上的自主性,使得机动车道路交通事故责任将无法继续以驾驶员的过错作为责任基础,为充分救济事故的受害人,可以考虑引入机动车保有人的严格责任。由于自主系统的引入,自动驾驶领域的产品责任在缺陷和因果关系认定方面将面临特殊困难,消费者的合理期待标准、“事物自道其缘”法理的适用以及监管标准的确立能够在一定程度上缓解困境,却不能从根本上解决问题。随着自动驾驶汽车的制造商和设计者等对于车辆控制能力的不断提高,他们有可能获得车辆保有人的身份,并最终实现机动车道路交通事故责任和产品责任在自动驾驶领域的合流。
关键词:自动驾驶;智能机器的自主性;机动车道路交通事故责任;产品责任
随着人工智能技术的迅猛发展,自动驾驶时代正在到来。自动驾驶汽车致损的侵权责任承担问题,不仅涉及自动驾驶汽车的市场化进程,牵动着巨大的产业利益,更涉及普通交通参与者的生命与财产安全以及交通事故受害者的救济问题,不可谓不重大。
自动驾驶汽车作为智能机器人的一个典型示例,其民事责任是更为宽泛的人工智能的民事责任的一个具体领域。2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议(2015/2103(INL)》(以下简称《机器人民事法律规则》)。就机器人侵权及责任承担这一法律问题而言,该立法建议涉及互相关联的两个方面:一是,由于机器人具有一定程度的自主性(autonomy)和学习能力(selflearning),所以为自主智能机器人造成的损害分配法律责任是一个复杂的问题。虽然现有的责任框架可以适用于机器人或者人工智能造成的损害,但仍然是不够的,一个可能的解决方案是建立适用于自主智能机器人的强制保险制度和作为补充的赔偿基金;二是,在现有的责任机制(框架)不敷使用的情况下,对于最复杂的自主智能机器人,可以考虑赋予其法律地位,在法律上承认其为“电子人”(Electronic Person),由其对自己造成的损害承担责任。可以看出,这两个方面统一于机器人的自主性这一人工智能技术的根本特征。正是由于机器人的自主性,人们质疑现有的责任机制是否不敷使用;而现有责任机制受到的挑战,又似乎反过来印证和加强了机器人具有自主性甚至应该具有法律人格的论断。
欧洲议会的这一立法建议,是世界范围内针对机器人侵权及责任承担问题的第一个也是唯一一个立法文件。该立法建议也成为我国国内研究该领域的论者借鉴的主要思路之一,并且已经产生了广泛影响。但是,究竟应该如何认识智能机器的自主性,智能机器的自主性是否足以使之被赋予法律地位并被承认为法律主体,智能机器的自主性给现有的责任机制带来了哪些挑战以及我们应如何应对,这些问题都有从法学角度予以进一步深入分析和思考的必要。问题的根本在于如何从法学理论的角度来认识、分析和回应新的技术可能带来的挑战。
在人们的原初印象中,机器只能从事简单的、机械的工作,而复杂的、需要与环境高度互动的工作,则专属于人类。“智能机器”概念的提出,就是要通过科学和技术的发展,使机器具有人在行动时所依据的智能。《机器人民事法律规则》确立了智能机器人的五项特征:1.通过传感器和(或)与环境的数据交换(相互连接性),并且基于对这些数据的交换和分析来获得自主性;2.从经验和交互中自主学习(可选标准);3.至少有少量的身体支持;4.它的活动和行为能够与环境相适应;5.缺乏生物意义上的生命。其中,自主性与学习能力智能机器人的其两项核心特征。
完全的自主性意味着新的机器范式:不需要人类介入或者干预的“感知—思考—行动”。申言之,未来的自主智能机器人将有能力完全自主行为,不再是为人类所使用的被动工具;虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获得的信息的分析和判断而展开,而且,它们在不同情境中的反应和决策可能不是其创造者可能预料到或者事先控制的。对于这一机器范式,我们需要通过法学的视角重新加以审视。
就作为智能机器人的典型示例的自动驾驶汽车来说,上述较为宽泛的描述没有深入到自动驾驶的技术细节,也在一定程度上误导了人们对于自动驾驶汽车“感知—计算—行动”的理解。自动驾驶汽车能够在没有人类驾驶者干预的情况下自行监测驾驶环境,承担驾驶任务。为实现这一目标,首先,自动驾驶汽车需要配备GPS、导航系统,以及雷达、激光、摄像头等各类传感器装置。通过传感器实时监测路况、天气等各项数据,系统能够即时定位自己的位置,并绘制周围环境的三维影像图;其次,通过分析这些数据,系统作出规划,选择一条能够避开障碍物并到达目的地的最佳路径;最后,系统发出运行指令,驱动汽车的每一次变向、加速与刹车,直至到达目的地。
但是,如果将自动驾驶汽车的上述运行机制认定为一种“行动”,则是对于“行动”一词赋予了过宽的含义。因为,“行动”是一个专用于人类的词汇。虽然动物也如人类一样可以从一个地方转移到另一个地方,但是我们通常不把动物的位移称为“行动”。对于“行动”,米塞斯给出的定义是:力求达到目的;也就是说,先选择一个目标,然后借助于手段来达到所追求的目标。“行动”这个范畴包含着下述概念:手段与目的、取与舍(评价)、成功与失败、利润与亏损。这一定义深刻揭示了“行动”所内含的目的因素。自动驾驶汽车虽然能够依据上述运行机制将乘客从家里运送到目的地,但是其行程的目标却离不开乘客的指示。这与现在的出租车驾驶员听从乘客的指示显然不同——出租车驾驶员之所以听从乘客的指示,是出于其获得运输服务的对价的目的。因此,出租车驾驶员具有独立于乘客的自主的目的。而当人们为AlphaGo战胜人类最优秀棋手而慨叹时,可曾想过,AlphaGo为什么要下棋呢?它是被谁赋予了“生”而下棋的“夙命”呢?DeepMind团队指出,AlphaGo的设计仅针对围棋的进攻、防守进行分析判断,系统本身无法理解围棋及对弈过程所代表的意义。也就是说,AlphaGo本身还无法以主观意识进行思考,无法意识到自己正在与对手下棋:它更像是为了求胜而制作出的超级运算工具。这也是目前全球人工智能主要的发展方向,即并不是要打造可自我思考的电脑,而是要发展更具效率、更能作出准确判断的辅助运算系统——最终控制决定的权利还是在人类手上。
因此,建立在“感知—思考—行动”基础上的智能机器人的所谓“自主性”,应该主要从技术层面来理解。事实上,《机器人民事法律规则》也指出:机器人的自主性可以被界定为在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。
从根本上说,自动驾驶汽车是否具有“自主性”,取决于人们如何看待“自主性”。如果将自我意识(consciousness)作为“自主性”不可或缺的要素,那么在现有技术条件下,在弱人工智能时期,显然不能认为自动驾驶汽车具有“人类心灵的能力”。依现有的哲学范式,意志、理性均源于人类心灵的能力,正是这种能力,才使得为人类确立道德法则成为可能。用康德的话说,“可以把纯粹理性看成是一种制定法规的能力。”
当然,既有的哲学范式并非不可突破。目前,人们所担心的是,会不会有一天,在智力和体力方面全面超越人类的机器人突然有了自我意识,并代替人类成为这个世界的主宰,而“智人”成为机器人生命进化过程中的一个阶段。不过至少在目前的技术条件下(或者是信心满满的人类一厢情愿地认为),人工智能,包括自动驾驶汽车,仍然是有主的,是服从人类的命令的,正如奴隶虽然也有自己的智能却仍然服从于奴隶主一样。人类寄希望于机器人奴隶永远也不寻求解放,比人类奴隶更听话。但最终的结局如何,要由未来亲自来回答。
总结而言,目前阶段的人工智能没有自主目的、不会反思、不会提出问题、无法进行因果性思考、没有自己的符号系统,显然不具备人类心灵的能力。而可以与人类媲美的强人工智能甚至是超级人工智能最终能否实现,只能留待未来回答。但可以肯定的是,如果人工智能有意识,就不会服从人类为之设定的规则,至少应该是与人类一起制定规则,更可能的甚至是智能机器为人类设定规则。
以上讨论从本体论的角度出发,旨在辨明智能机器的技术意义上的“自主性”并没有使其具备人类的意识、目的、意志、理性等根本要素,从而无法使其拥有本体意义上的道德人格。但是,仍然需要进一步分析和澄清的问题是,如果法律人格与道德人格之间可以分离,那么智能机器的技术意义上的“自主性”能否通过与法律上的资产特定化技术相结合,从而可以甚至应该获得法律人格,并对自己的致损事故自负责任?
主张依“自主性”赋予法律人格的观点其实随处可见。鉴于智能机器具备了自主性和学习能力,即便其制造者(或设计者)可能也无法预测其行为,《机器人民事法律规则》提出了承认最复杂的自主智能机器人为“电子人”的设想。《机器也是人:人工智能时代的法律》一书也提出,鉴于人工智能具有自动决策的能力,法律应当赋予其法律人格,将其视为独立的法律主体;对于人工智能引发的事故,理当由人工智能本身来承担责任,而非消费者和制造商。
这就需要我们回到民法基本理论的一个重要问题:法律人格与财产、责任之间的关系。就人们想象中的未来的超级人工智能而言,它们虽然具有了自我意识和自由意志,但其是否愿意受到人类法律的约束,就成为问题。考虑到超级人工智能在体力和智力方面已经远远超过了人类,以惩罚和制裁为后盾的人类的法律规则,恐怕无法加诸其身,这也使得法律调整社会关系这一秩序构建的机制本身面临着前所未有的挑战。即使超级人工智能表面上服从于人类的法律,但是其远超过人类的体力与智力也会使得追究其法律责任变得异常困难。例如,对于其过错的判断究竟是应该以理性人这一假想的人像为基础,还是应该考虑其本身的超强能力,就成为需要考虑的问题。相应地,对于其过错与损害之间的因果关系的探究,也会相当困难。原因很简单,因为我们已经无法理解超级人工智能了。在这种情况下,欲赋予超级人工智能以法律人格,让其屈从于人类法律的调整,便是我们人类的一厢情愿。
而就现阶段的弱人工智能而言,在财产特定化基础上赋予其法律人格,原则上服务于“限制本应为弱人工智能的致损事故承担责任的人类的责任”这一目的。由于自动驾驶汽车不具有自己的“生命”,不具有自己的财产,所以其账户里的责任基金只能来源于人的资产的分割与特定化。资产特定化的实质效果是让本应承担责任的人逃避法律责任,其本质是责任财产的特定化和限定化。也就是说,制造商可以只生产自动驾驶汽车而不承担其致损责任,但是生产自动驾驶汽车的获益则由其所独享。从正义的基本要求来看,这并非是可欲的。
财产的特定化,在遗产的限定继承和将遗产本身作为一个财团法人方面,就有所体现。近代以来,企业的产生、主权者之间的经济竞赛的需要,使得财产的特定化以法人或者信托的形式得到极大发展。从人们对于自动驾驶汽车的电子人格的遐想来看,也仍然要求其制造商、设计者、销售者或者其他利益相关者以自动驾驶汽车登记为基础,为其设立责任基金。在本质上,这一做法就是为自动驾驶汽车分配一定的财产并且将其特定化,以之作为自动驾驶汽车致损事故的责任财产。在此,机器人登记服务于区分各个责任财产。
值得进一步思考的是,如果自动驾驶汽车致损,而需要赔偿的金额超出了其责任基金,该怎么办?套用关于法人的法律技术,基金的出资人在此种情况下是承担有限责任还是无限责任?更进一步,自动驾驶汽车会破产吗?资不抵债应该会破产,那么破产以后,自动驾驶汽车会被民法“放逐”吗?或者通过“人格减等”把自己变身为其债权人的“电子奴隶”?如果以上均只是笔者的想象,那么结果很明显,就是事故的受害人只能自担损失。即使通过保险机制分散事故的风险,甚至要求强制保险,也仍然存在受害人得不到充分救济的可能性。
反过来,当自动驾驶技术的进一步发展使得事故率极大降低,责任问题被限缩在非常小的范围内时,要求自动驾驶汽车的设计者、制造商、销售者或者其他利益相关者为其设立责任基金的正当性也不充分。按法人与信托,出资人从自己的责任财产中划拨出特定部分成立或加入独立的责任财产,是因此而受益的:在私益信托或营利法人(或互益法人)的场合,受益人是特定人;而在公益(慈善)信托或非营利法人的场合,受益人可以是不特定人。无论如何,出资人向法人或者信托投入或移转特定财产,是为了获得收益或者基于慈善的目的。那么,智能机器人的设计者、制造商、销售商或者其他利益相关者向以登记为基础的智能机器人划拨或投入特定财产,又是为了获得何种回报呢?父母固然愿意向子女赠与财产,但这是基于动物保存后代、确保种族繁衍的天性。那么此处难道是将智能机器人视作其设计者或者制造商的“后代”?这显然过于荒谬。
此外,从法律调整社会关系的基本机制来看,为自动驾驶汽车分配特定的责任财产并在此基础上拟制所谓的“电子人格”,也不具有可行性。通过拟制人格来实现财产的特定化,需要考虑拟制成的主体受法律调整的可能性,即需要其能够回应法律调整的规范要求。康德在其“道德形而上学总导言”的开篇,即讨论了人类心灵能力与道德法则的关系。他进一步说,“人,是主体,他有能力承担加于他的行为。因此,道德的人格不是别的,它是受道德法则约束的一个有理性的人的自由。”法律主体的要件之一,是适于受法律调整,能够响应法律的行止要求。法律是调整人与人之间的关系的。人类社会之所以可以由法律来调整并构建秩序,是由于人的理性决定了法律能够通过规范人们的行为来调整社会关系。那么,智能机器能否理解法律的行止要求?智能机器能否根据法律的要求来规范自己的“决策”?
法律规范人们行为的具体机制是,人通过理性理解了法律的规范要求后,基于厌恶违反规则的法律后果(责任)而依据规则的要求行事。例如,信托关系的受托人负有信义义务,这是法律要求的一项义务。现在,假使由人工智能来充任投资顾问,即所谓的智能投顾,那么智能投顾是否也同样负有信义义务呢?其中一个关键问题在于,人类在开发智能投顾时,可以也应该将信义义务的具体要求内化于其决策模型之中,因而能够响应法律的要求构建或训练这种决策模型的,显然只有人类本身。与此类似,自动驾驶汽车需要遵守交通规则,这就要求设计或制造自动驾驶汽车的人将道路交通规则内化于其决策逻辑之中。所以,德国的法律是对人提出了要求,而不是对于自动驾驶汽车本身提出要求。
此外,由于目前阶段的智能机器尚不具备自我意识,即使其被分配了特定财产,该财产对于智能机器来说,也没有任何意义。智能机器不会由于虑及需要以财产赔偿由其所造成的他人的损失,来相应地调整自己的行为。同样,责任感也产生于人的理性,而不是产生于拥有财产。因此,所谓的为智能机器立法,其实都是为涉及智能机器的人所立的法。
主张给予智能机器以法律人格的观点都通过与法人的类比来进行论证,但是论者显然忽略了这样一个重要事实:法人只能借助于自然人才能从事民事活动。主张构建纯粹法理论并严格区分法律与道德的凯尔森,虽然将法人主要理解为一种秩序或者结构,但是仍然承认:“行为和不行为只能是人(human being)的行为和不行为……当有人说到法人的行为和不行为时,一定是有关人的行为和不行为。”所以,法人虽然以自己的责任财产作为承担民事责任的基础,但也是借助于自然人来响应法律的行止要求、接受法律的规范调整的。从这个意义上说,通过类比法人来论证智能机器的法律人格,是不成功的。
总结而言,智能机器无法理解和响应法律的行止要求、无法接受法律的调整、无法理解财产之于自身的意义,旨在通过赋予其法律人格以达到的责任限定效果不符合正义的基本要求,并且与法人的类比论证忽略了自然人之于法人的重要意义,因而赋予智能机器以法律人格,从理论上看是无法成立的。
自动驾驶汽车能够按照上述“感知—思考—行动”机制运行,主要得益于“深度学习”算法。深度学习使得智能机器能够依据自身通过数据训练而构建起来的决策逻辑,通过对环境的感知和(或)与环境的交互,对自己的活动作出具体的指令。这导致人类对智能机器的控制能力下降。“尽管委员会的前述指令在上述范围内可以适用,但是在新一代机器人能够配备适应和学习能力,从而使得他们的行动必然存在一定程度的不可预测性的情况下,目前的法律框架无法充分覆盖它们造成的损害,因为这些机器人可以自主地从他们的个殊经历中学习并且以一种唯一的和不可预见的方式与他们的环境进行交互。”因此,自主学习能力带来的问题主要是人类对智能机器的控制力下降,以及使得智能机器的行为具有一定程度的不可预测性。从因果关系理论的角度来看,或许人们会据此认为,智能机器超越了人类对它的控制,成为事故发生的替代原因。
关于智能机器的自主学习能力所引发的“后天的”学习和经历(区别于“先天的”系统设计和训练)能否成为其造成的损害的替代原因这一问题,仍然取决于智能机器是否已经具备了自我意识和自由意志。哈特和奥诺尔讨论法律中的因果关系时,对于人的行为是否构成介入(替代)原因这一问题所提出的主要判断标准即在于介入的行为是否体现了介入者的自由意志和自主选择。如果介入的行为未能体现介入者的自由意志和自主选择,则不构成介入原因。在目前的技术条件下,智能机器尚不具有自主意识和自由意志,而从经历和交互中学习的能力,是智能机器的一个核心特征,所以其设计者和制造商不仅完全可以预料到智能机器能够进行“后天的”学习和经历,而且这种能力正是其设计者和制造商所追求和利用的。换句话说,在某种程度上,智能机器被设计成具有不可预测性。瓦格纳也认为,虽然自动系统的具体行动无法预测,但是这并不意味着这些系统的风险在事前无法被认识到。相反,汽车生产商事实上认识到并且接受了自动驾驶汽车的安全风险,因为它们是由算法控制的。因此,任何人如果允许机器作出自主决策,都应该能预见到机器总是会失控并且应当为此承担责任。
人类驭使具有智能的工具,其实有着悠久的历史。在奴隶社会,奴隶主驱使奴隶为自己的生产、生活从事劳动或提供各种服务。奴隶当然也是具有智能的,但是这并不妨碍奴隶主对于奴隶的致害行为承担责任。随着人类文明的演进,奴隶制度被废除,虽然在制度层面消除了人充当他人的工具的合法性,但是在具体情形中,将他人作为自己工具的情形依然存在。刑法中教唆他人作为自己的犯罪工具即为适例。一旦某人将他人作为自己犯罪或者侵权的工具,虽然他人当然也是具有智能的,但是法律在要求教唆者为他人的致害行为承担责任的时候,并不曾有片刻的犹豫。另外,随着人类对于动物研究的不断深入,某些动物具有相当于人类幼儿的智商已经得到科学家的揭明。这些具有一定智能的动物致害时,也没有因为它们具有智能而阻碍法律向其保有者分配损害赔偿责任。所以,智能机器给民事责任承担带来的问题,应该主要不是由于机器具有智能而无法分配责任的问题,而是如何分配责任、现有的责任规则是否需要以及如何作出相应调整的问题。
就自动驾驶汽车而言,智能机器的自主性首先意味着,人类驾驶员将逐渐向自动驾驶系统移交汽车的驾驶权。这就意味着,可能对于致损事故承担责任的主体,将从传统的驾驶员扩大或转移至自动驾驶汽车的制造商、设计者等。对于这一点,各国事实上已经达成了广泛的共识。这就要求重新审视既有责任机制(主要是机动车道路交通事故责任与产品责任)的可适用性。本部分先检讨机动车道路交通事故责任,对于产品责任的检讨则让诸下一部分。
首先需要指出,智能机器的“自主性”并非一蹴而就,相反,技术的发展具有渐进性。这就使得人类驾驶员向自动系统移交汽车的驾驶权时,亦表现出渐进性,并引发了“人机混合驾驶”甚至是“人机混合行驶”情况下责任判定的难题。
1.汽车分级
对于自动驾驶汽车的理解,需要结合汽车的分级来进行。关于汽车分级,目前较为普遍接受的是2014年国际自动机工程师协会(SAE)发布的六阶段分级法。汽车按照其自动化的程度分为全手动(level 0,No Automation)、驾驶辅助(level 1,Driver Assistance)、部分自动(level 2,Partial Automation)、有条件自动(level 3,Conditional Automation)、高度自动(level 4,High Automation)与完全自动(level 5,Full Automation)六个阶段。该六阶段分级法已为2016年9月美国交通部(DOT)国家高速公路交通安全管理局(NHTSA)发布的《联邦自动驾驶汽车政策》和英国汽车生产商与经销商协会(SMMT)与毕马威会计师事务所(KPMG)发布的报告等所采纳。我国工业和信息化部、公安部、交通运输部于2018年4月3日发布的《智能网联汽车道路测试管理规范(试行)》第28条第2款,以及上海市经济信息化委、市公安局、市交通委于2018年2月22日联合印发的《上海市智能网联汽车道路测试管理办法(试行)》第30条第2项针对智能网联汽车的分级也采纳了L3- L5级别的自动驾驶阶段划分。
从目前的技术发展和各国的立法情况来看,有条件的自动驾驶(level 3)以上的阶段才是自动驾驶汽车发展的方向和拟运用的主要场景,也是自动驾驶汽车的民事责任引起各方关注的主要技术背景。而从民事责任承担的角度出发,还有必要作出进一步的区分。其区分的关键在于,自动驾驶汽车的驾驶权限究竟是由自动系统和人类驾驶员分享,还是专属于自动系统。在这两类情况下,自动驾驶汽车所引发的风险和所带来的责任法问题,会存在一定的差异。
2.“人机混合驾驶”问题
目前,自动驾驶技术以人机混合驾驶模式为主。此时的核心问题是:当自动驾驶汽车发生事故并造成人员伤亡或财产损失时,如何在人类驾驶员和自动驾驶系统(或者说,自动驾驶系统的最终责任人)之间判定责任?世界范围内已经通过的关于自动驾驶的法律、国际公约、政策指南等,大多是针对L3级别自动驾驶的立法方案,并且分享着一条共同的原则:人类驾驶员需要在紧急情况下随时准备接管汽车。
在奥地利、比利时、法国、德国和意大利等政府的共同争取下,2016年3月,一度被公认为阻碍自动驾驶汽车发展的《维也纳道路交通公约》第8条顺利通过修订。修订后的条款明确,在全面符合联合国车辆管理条例及驾驶员可以选择关闭该技术的情况下,将驾驶车辆的职责交给自动驾驶技术可以被应用到交通运输当中。该规定事实上为自动驾驶技术在交通运输中的应用清除了障碍。
德国2017年6月颁布的《道路交通法第八修正案》规定,自动驾驶汽车应满足六个要求,包括在任何情况下驾驶员都可以手动取代或关闭自动驾驶系统并接管车辆;自动驾驶系统应可以识别出需要驾驶员亲自操控的情形,并在移交接管前向驾驶员作出足够的提示等。该修正案还明确了使用自动驾驶系统时驾驶员的权利和义务,包括在自动驾驶系统接管状态下,驾驶员可以不对交通状况和车辆进行监控,但仍需时刻保持清醒戒备状态以准备随时接管;在自动驾驶系统向驾驶员发出接管请求以及当驾驶员发现自动驾驶系统不能正常工作时,驾驶员应立刻接管车辆。
该立法模式带来了关于接管妥当性的判断以及在人机之间分配责任的难题。针对德国《道路交通法第八修正案》,德国汽车工业协会相关人员表示,该修正案所要求的“当驾驶人发现或者基于显而易见的情况能够发现,对高度或者全自动驾驶功能的‘符合规定的使用’这一前提条件不复存在时,应立即接管汽车”,将是责任问题的关键。福尔克尔·吕德曼教授也指出,驾驶员必须时刻保持对自动驾驶系统的监控,以便在系统提出接管请求时“立即”接管对汽车的控制,而驾驶员是否尽到了“基本的注意”,还是有“因与驾驶无关的行为而非法分散注意力”的情况,可能只能通过法院经年累月的判决来界定。在此之前,为减少或避免责任,驾驶员只能得出亲自驾驶汽车的结论。这些批评的着眼点,均在于接管妥当性的判断标准不明确,而接管是否妥当,直接意味着驾驶员有无过失。
为了帮助判断在事故发生时接管的妥当性并在人机之间分配责任,已经有立法要求引入类似“黑匣子”的技术,即事件数据记录仪(Event Data Recorder, EDR)。例如,美国加利福尼亚州、内华达州等规定,自动驾驶汽车事故发生前秒的数据必须被记录,并至少保存3年;德国《道路交通法第八修正案》要求所有自动驾驶汽车都必须安装类似“黑匣子”的装置;《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》和《北京市自动驾驶车辆道路测试管理实施细则(试行)》也明确规定,上路测试的自动驾驶汽车应安装数据记录装置,至少记录交通事故发生前秒至停车时间段内的相关数据。
但是,“黑匣子”本质上是一个证据问题,只能为接管妥当性的判断和人机之间的责任分配提供具体事实依据,而人机之间的驾驶权限分配以及人机之间互动的模式等问题,仍然需要法律规则予以明确。这不仅要求明确驾驶员的接管妥当性的判断标准;也要求为自动驾驶系统确立明确的安全标准,包括系统在何时应发出警报要求人类驾驶员接管等,因为人类驾驶员(或其保险公司)在承担责任之后,还可能向具有缺陷的自动驾驶汽车的制造商等追偿。
3.“人机混合行驶”问题
未来的人类交通模式,可能是人类驾驶员被禁止在道路上驾驶机动车,若其想要体验驾驶的乐趣,只能去专门的驾驶体验场所——这样才能最大化地发挥自动驾驶汽车的优势。但另一方面,从保障个人自由的角度出发,能够选择关闭自动系统而亲自驾驶,或许应该被视为机动车主的一项基本权利而始终保留。
机动车是耐用品,按现有的技术条件,可以正常行驶10年以上的时间。虽然自动驾驶技术的优势已经为一系列实验数据所不断揭明,但是法律无法规定统一的时间界限,确定从那一刻起禁止所有的人工驾驶汽车上路。即使完全自动驾驶汽车不需要人类驾驶员甚至禁止人类驾驶员掌握方向盘,也仍然避免不了在一段时间内采取人类驾驶的机动车与完全自动驾驶汽车混合行驶的交通模式。这就会存在因人类驾驶模式与自动驾驶汽车行驶模式不完全一致而导致额外风险,以及当自动驾驶汽车与人类驾驶的机动车甚至是非机动车、行人发生交通事故时,产生责任认定和分配上的难题。
无论如何,至少在目前阶段,自动驾驶汽车需要适应人类驾驶员以及行人的各种意料之外的行为。在现实的道路环境中,人类驾驶员可能不那么遵守交通规则,有的人类驾驶员会偏快,而有的则偏慢。在机、非混行的道路上,自动驾驶汽车也必须对可能闯红灯的行人、自行车、电动自行车等随时保持警惕。事实上,目前的交通标志、标线、路牌、信号灯等,主要是以人类驾驶员为信息接收主体而设置的,所以自动驾驶汽车需要被动地接受目前的交通秩序之现状。换言之,当人与机器之间的互动成为现实的时候,需要考虑这样的问题:应由人来适应机器,还是应由机器来适应人。这虽然取决于技术的发展水平,但是从法律上分析其可能的责任问题,也可以对能够达到商用的技术水平提出相关要求。从道路交通方式的现实演进路径来看,机器显然是“后来者”,它们必须接受人类交通模式的现状,即使要改变之,也只能是渐进式的。
如果说在人机混合驾驶的情况下,人类驾驶员与机器(的最终责任人)的责任划分尚局限于一辆机动车的内部,那么在人机混合行驶的情况下,责任划分问题就更为复杂。这就涉及到,在认定人类驾驶员可能的驾驶过失与完全自动驾驶汽车可能存在的产品缺陷时,两者是否会互相影响;在既存在驾驶过失又存在产品缺陷的情况下,如何实现过失相抵;一方或双方的保险公司如何支付保险金和行使追偿权;机动车强制责任保险的覆盖范围是否需要调整以及如何调整等一系列问题。
由于绝大多数交通事故都源于驾驶员的某种程度上的过错,因而驾驶过失是驾驶员承担机动车道路交通事故损害赔偿责任的责任基础。虽然从原则上看这是成立的,但是却没有照顾到以下两个方面对于该原则的突破。
一是,关于机动车驾驶员的责任原则,立法例中存在从过错责任到无过错责任的各种变化。我国《道路交通安全法》将机动车交通事故责任区分为两类,一类是机动车之间的事故责任,另一类是机动车与非机动车、行人之间的事故责任。前者采过错责任原则,后者则采严格责任加过错相抵原则。德国《道路交通法》规定了驾驶员事故过错推定的相关规则,但是该过错推定责任有责任限额,超出责任限额的部分,受害人得依德国民法典第823条第1款要求驾驶人承担过错责任;此外,日本《机动车损害赔偿保障法》第3条通过“运行供用者”这一概念容纳了机动车驾驶员的过错推定责任;欧洲除不列颠群岛以外的各法域实现了机动车道路交通事故责任在人身伤害领域的严格化;美国也有个别州创设了机动车事故的无过错体系。
在规定了(部分)无过错责任的情况下,以我国的规定为例,机动车道路交通事故责任的认定本来就无需考虑驾驶员的过错,即使开启了自动驾驶系统的驾驶员在接管车辆方面不存在过失,驾驶员也要对(与非机动车、行人之间的)道路交通事故承担责任。这样,既有的机动车道路交通事故责任机制仍然可以在一定范围内得以适用。但是,由于《道路交通安全法》第76条第2款规定,在机动车与非机动车、行人发生交通事故时,机动车一方没有过错的,承担不超过10%的赔偿责任,因此驾驶员过失的认定对于责任的承担仍然具有重要的意义。
二是,由于存在机动车主与驾驶员相分离的情形,所以各立法例均针对这种分离可能性作出了回应。例如,德国《道路交通法》规定了有关机动车保有人“车辆运作风险”(Betriebsgefahr)的法律责任。据此,机动车保有人对由汽车造成的损害承担严格责任。保有人是指为自己的利益而使用机动车并且对机动车具有支配权之人。所有权人一般是保有人,但所有权并不是成为保有人的必要条件。而日本《机动车损害赔偿保障法》为解决汽车所有人与占有人可能相分离的情况,用“运行供用者”概念统合机动车主和驾驶员,运行供用者是“为自己将机动车供运行之用者”(该法第3条)。关于运行供用人的判断,日本学说有二元说与一元说:二元说根据运行支配与运行利益这样两个标准进行判断;而一元说认为运行利益不过是运行支配的一个表象,应该只以运行支配为基础进行判断。
我国《侵权责任法》第49条规定:“因租赁、借用等情形机动车所有人与使用人不是同一人时,发生交通事故后属于机动车一方责任的,由保险公司在机动车强制保险责任限额范围内予以赔偿。不足部分,由机动车使用人承担赔偿责任;机动车所有人对损害的发生有过错的,承担相应的赔偿责任。”因此,与上述德、日立法例相比,在机动车主与驾驶员相分离时,我国机动车主在交强险的责任限额之外,仅在自身有过错的情况下承担责任。因而,在自动驾驶汽车的驾驶员不存在接管过失甚至自动驾驶汽车中根本没有驾驶员的情况下,我国目前的机动车道路交通事故责任机制在很大程度上就不敷使用了。
由于自动驾驶技术使得机动车的驾驶任务逐渐由人类驾驶员转交自动驾驶系统承担,因而以驾驶人的驾驶过失为基础的机动车事故责任及相关的保险机制,也必须作出相应的调整。笔者认为,从切实救济事故受害人的角度出发,我国可以考虑引入机动车保有人对于机动车这一本身风险物的无过错责任作为救济的责任基础,统一适用于机动车之间的事故责任及机动车与非机动车、行人之间的事故责任,并在该责任基础上构建保险机制。
当人类驾驶员逐渐向自动驾驶系统移交驾驶权限之后,机动车主仍然保有其他决定权。具体而言,机动车保有人决定机动车的运行距离(长途还是短距)、运行的道路(高速公路还是乡间小路)、运行时段(白天还是夜晚)等,这些也会影响机动车事故发生的概率。即使是完全自动驾驶汽车,在其出厂后的运行过程中,也需要周期性的保养、维护、系统升级甚至是维修,汽车的操作系统需要定期校正以确保它所运行的是经过最新的数据库训练过的最新软件程序,而这些仍应由机动车的保有人来负责。
德国也有学者指出,即使在无人驾驶阶段,保有人责任仍然是成立的。因为保有人责任的基础在于抽象风险,是每辆机动车无论如何均会给其他交通参与人带来的风险,与个案情况无关。“从构成要件方面来看,在无人驾驶阶段,保有人同样享有运行利益,这点并无疑问,因为车辆产生的各种运行费用仍然由系统使用人承担,而非系统的生产者。保有人仍然可以决定是否启动汽车和何时到达终点。只有在保有人完全失去对机动车的影响时才丧失保有人属性。”
将机动车道路交通事故责任的主体从驾驶员扩及机动车保有人,并且要求其承担以机动车风险为基础的责任,可以在一定程度上适应向自动驾驶时代过渡过程中的事故责任分配问题。具体而言,引入机动车保有人以风险为基础的严格责任具有以下优势:
其一,将责任主体扩及机动车保有人,可以适应自动驾驶汽车逐渐由自动系统承担驾驶任务这一变化。尤其值得指出的是,当车辆转由自动系统承担驾驶任务时,驾驶员的身份就逐渐向乘客过渡。虽然乘客只是欧洲一些国家法律赋予了相对不利地位的第二大类交通事故受害者群体,但趋势是明显的,即原则上所有的乘客都能就其遭受的人身伤害获得损害赔偿。所以,引入机动车保有者的危险责任,也有利于驾驶员在车辆由自动系统接管时依乘客身份获得救济;
其二,以机动车风险为基础的责任,使得受害人在求偿时,不必困扰于人机混合驾驶时驾驶员是否有过失,或者在人机混合行驶时完全自动驾驶汽车与全手动驾驶汽车或有条件的自动驾驶汽车之间的过错和事故原因判定等难题。以机动车风险为基础的责任,也可以使“黑匣子”记录的数据仅服务于保险公司向设计者或制造商可能的追偿,而受害人无须聘请专家来分析这些数据,从而回避“黑匣子”技术的信息壁垒;
其三,就目前的技术发展情况和法律环境来看,这样的责任机制与保险思路具有较大的可行性。美国学者指出,在自动驾驶汽车投入市场初期,可以通过改造传统交强险与商业险的方式,要求每一辆自动驾驶汽车的消费者购买交强险,同时鼓励其购买商业险。英国2018年《自动与电动汽车法案》确定了“单一承保模型”(a single insurer model),使得汽车保险同时涵盖人类驾驶员驾驶汽车的行为以及车辆自主行驶。如果车辆已经投保,保险公司需要承担首要责任,之后可以依据产品责任法或其他现行法向直接责任人进行追偿。在车辆未投保的情况下,如果车辆在自主行驶的状态下发生事故,则由车辆所有人对事故造成的损失承担赔偿责任;
其四,我国引入这一责任构造,也具有一定的可行性。我国《机动车交通事故责任强制保险条例》第2条第1款规定,交强险的投保义务人是机动车的所有人或者管理人。换言之,虽然我国侵权责任法将机动车道路交通事故责任的主体主要确定为机动车驾驶人,但是机动车的强制保险机制已经开始将责任主体向机动车所有人或者管理人扩展。当然,囿于目前我国交强险较低的责任限额,交强险的赔付并没有使机动车主的责任转变为无过错责任。但若我们反过来看这个问题,一旦将交强险的责任限额提高到可以基本覆盖事故损失的程度,机动车主基于机动车这一本身风险物的无过错责任就在事实上确立了。从这个角度来看,我国引入这一责任构造的制度成本是较低的。
虽然引入机动车保有人以风险为基础的严格责任具有上述优势,但是随着自动驾驶技术日渐成熟,交通事故率将大幅降低,将机动车视为本身风险物的社会基础将不复存在。并且,自动驾驶技术的发展也将使得通常被认定为机动车保有人的机动车主对车辆可能施加的影响或控制越来越小直至完全丧失,以至于再将其称为“保有人”都可能已经脱离了保有人的本来含义。而在这之前,基于运行利益和运行支配将自动驾驶汽车的事故责任加诸自动驾驶汽车的保有者身上,并构建相应的保险机制,可能存在对于自动驾驶汽车制造商和设计者的谴责不足问题,无法促使其生产和研发更为安全可行的自动驾驶系统。对于《道路交通法第八修正案(草案)》,德国联邦参议院遗憾地表示:它“完全忽略了汽车制造商对其研发的无瑕运作的自动化辅助系统,以及将该系统引入市场的责任”。根据德国联邦参议院的看法,消费者将要过度承担额外的义务以及第三方责任车险的预期溢价增长。这些批评都是源于德国《道路交通法第八修正案》仅依赖于机动车保有人责任来应对自动驾驶技术的挑战。对于产品责任的特殊期待的另外一个原因在于,自动驾驶领域的机动车保有者责任可能无法适用于其他类型的智能机器人,因而无法一般化为人工智能民事责任的基础。
《机器人民事法律规则》指出,“根据目前关于产品责任的法律框架——产品的制造者对于产品故障(malfunction)负责……适用于机器人或者人工智能造成的损害。”2017年6月,德国交通部下属的伦理委员会发布的《自动和联网驾驶》中有一项要求为,法律责任和审判制度必须对责任主体从传统的驾驶员扩大到技术系统的制造商和设计者这一变化作出有效调整。在我国,也有学者指出,产品责任是智能系统致人损害责任认定的方式之一。
关于由自动驾驶汽车的制造商承担事故责任的正当性,一种常见的论证思路是,对于自动驾驶汽车而言,使用人并没有实施驾驶行为,汽车运行实质上由系统操控,因此,自动驾驶汽车发生事故,最有可能的原因就是防碰撞系统本身存在故障或者汽车遇到了其程序还不能应对的情况,而非使用人有过错。基于此,由自动驾驶汽车的制造商承担产品责任合情合理。此外,制造商控制和编写自动驾驶系统的算法程序,让制造商承担产品责任,可以确保他们持续提升和更新算法,增强自动驾驶汽车的安全性能。
但是,证明产品存在缺陷以及缺陷与损害之间的因果关系既困难又昂贵。即使产品责任声称是一种严格责任,但是由于需要证明产品存在缺陷,对于受害人来说,求偿的便利性远远低于机动车道路交通事故责任。更何况,自动驾驶汽车的自主性与学习能力也给现行产品责任法律框架带来了新的挑战。
1.缺陷的认定
产品责任是基于产品缺陷的责任。产品缺陷可以类型化为设计缺陷、制造缺陷和警示缺陷。其中,制造缺陷是指与该产品设计意图相背离的物理状况。由于此时产品没有达到制造商自己设定的标准,因而判断产品是否存在制造缺陷较为容易;设计缺陷和警示缺陷,是指具体的产品合乎设计意图,但该设计本身或者由于缺乏足够的使用说明或警示,导致产品不具有合理的安全性能。
可以预期的是,随着自动驾驶技术的进一步发展,产品的设计问题将在自动驾驶汽车的缺陷认定中占据更显著的地位。这可能涉及到提供或使用了有瑕疵的数据,依赖有漏洞的代码,执行了不合理的驾驶决策,系统部件之间不理想的互动,或者与其他道路交通参与者不充分的交流等。这些只是其中的一部分,产品设计能否最小化、控制或者缓和这些问题,是一个极大的技术挑战。就警示缺陷而言,有论者指出,自动驾驶汽车的生产商有义务披露已知的故障风险,包括任何已知或可怀疑的故障模式。
警示缺陷和设计缺陷的判定标准,无论是依照“不合理的危险”标准还是风险—收益分析,均不易得出确定的结论。我国《产品质量法》第46条规定,“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康、人身、财产安全的国家标准、行业标准的,是指不符合该标准。”但是目前,世界各国都尚未形成关于自动驾驶汽车的成熟标准,这使得依法定或行业标准来判断自动驾驶汽车是否存在缺陷有较大困难。
《美国侵权法第二次重述》的报告人在解释据以判断产品缺陷的“不合理的危险”标准时,采用了“消费者的合理期待”这样的术语,因而所谓产品具有不合理的危险,就是不符合消费者对于产品安全的合理期待。从消费者的合理期待出发,在具体的致损事故中,自动驾驶系统至少应达到与人类驾驶员同等的安全程度,否则无法体现以自动驾驶系统替代人类驾驶员在道路交通安全方面的优越性。事实上,美国国家高速公路交通安全管理局在给予汽车制造商免于遵守美国联邦机动车安全标准(FMVSS)的豁免时,也要求所引入的新技术至少与现有技术一样安全,甚至要求更为安全。当然,随着自动驾驶技术的提高,消费者对于产品的安全性可能有更高的期待。在“人机混合行驶”的情景下,对于自动驾驶系统的期待还包括,它必须不仅自身遵守交通规则,而且要预见到非机动车、行人违章的可能性,还要能够针对其他机动车的突发违章行为采取保护车内乘客的安全措施,这显然是更高一层的要求。
需要指出的是,消费者的合理期待标准具有一定的抽象性,正如侵权法中据以判断过错的“一般理性人”或“善良家父”一样,是法学所构造出来的假想形象,并非是就一个个具体的消费者而言的。消费者的合理期待标准,事实上有赖于法律共同体对于产品安全性能的整体期待。该标准受到的主要诟病即在于其模糊不清,更适于评判简单产品的设计,而无法适用于复杂产品的设计。虽然美国州法院的司法实践中并没有完全放弃消费者的合理期待标准,但是《美国侵权法第三次重述:产品责任》已经不再将其作为一项独立的判断标准,而是仅作为风险—收益分析的一个因素。
就风险—收益分析而言,首先需要指出的是,不能因为自动驾驶汽车的安全性及其给全社会带来的交通和安全福利,就认为很难证明自动驾驶汽车的某项设计存在缺陷。因为,如果仅从整体上来看待自动驾驶汽车的收益与风险,那么要证明其设计存在缺陷几乎是不可能的。这种从整体上权衡的观点忽略了统计学上的安全便利与具体的致损事故之间的差别。而且,随着技术的不断发展,判断自动驾驶汽车的整体安全性程度不应再局限于与传统的人类驾驶相比较,所以,需要权衡的风险与收益都会相应地发生变化。
依据《美国侵权法第三次重述》确定的关于认定产品设计缺陷的风险—收益分析,就具体的致损设计缺陷而言,受害人需要通过提出合理的替代设计来证明。依此,在个案具体事故中,如果导致事故的自动驾驶系统有其他可比的自动驾驶系统,其证明问题就相对简单。“某些情况下,一项与(操作)系统相关的设计缺陷可以通过将本算法中的要素与其他算法中的同类要素加以比较来确定。……此时,不需要进行全系统比较。存在着一项替代性的算法,能够在相同条件下阻止案件损害的发生,对于法院即为已足。如果‘盲点’在事前可以识别,且设置替代算法不会引起不成比例的花费,则一项设计缺陷无疑存在。”
但是,很多情况下,一项孤立的、可以通过几行代码加以纠正的、从一开始就能避免的缺陷,将不会存在或者至少无法证明。事实上,不能通过改写几行代码就解决个别缺陷,因为自主学习系统不是这么设计的。对于系统在紧急情况下某种行为的改变,必然会改变自主系统在其他潜在事故情形中的行为,这会带来不可预见的结果。而替代设计可能带来的新的危险,是替代设计的一项重要成本。就此而言,要求原告提出合理的替代设计以具体说明自动系统究竟是如何或为什么表现不佳,以及是否本可以表现得更好,可能是对原告强加了技术和经济上的障碍。
2.因果关系认定
受害人需要通过提出合理的替代设计来证明产品存在设计缺陷,就要求受害人首先弄清楚导致事故发生的具体原因,才能提出具有针对性的替代设计,而这一点其恰恰难以做到。司晓和曹建峰指出,无论采用何种机器学习方法,当前主流的深度学习算法都不是一步一步地对计算机编程,而是允许计算机从大量数据中学习,不需要程序员作出新的分步指令。因此,在机器学习中,是学习算法(Learning Algorithm)创建了规则,而非程序员;其基本学习过程是给学习算法提供训练数据,然后,学习算法基于从数据中得到的推论生成一组新的规则,称之为机器学习模型。他们还指出,虽然学习算法可能是公开和透明的,但它产生的模型可能不是,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员而言也是如此。
因此,自动驾驶汽车的学习能力与自主决策能力,首先使得人们事后探究自动驾驶汽车导致事故发生的决策逻辑和决策过程变得异常困难。不仅事故的受害人很难证明事故发生的确切原因,而且即使是自动驾驶系统的设计者或制造商,有时也很难解释事故究竟是如何发生的。即使自动驾驶汽车上配备有记录数据的“黑匣子”,也解决不了其逻辑决策的黑箱。要证明其中的缺陷,往往需要专门的业务知识以及专门的设备予以分析。但是,这些条件对于普通的受害人而言是难以做到或成本极高的。
其次,以概率为基础的决策和机器学习可能涉及明示的或隐含的决策标准权衡,例如对发生事故的风险与迟到的风险的权衡。受害人可能主张自动驾驶系统(的设计者或者制造商)本来应该为与安全相关的输入分配更多的权重。为此,受害人就需要证明权重赋值与损害结果之间的因果关系,从而证明对于权重赋值的调整本可避免事故的发生。但是这也存在很大的困难。
再次,如果求诸于法定或行业标准来判断自动驾驶汽车是否存在缺陷,那么受害人就需要证明自动驾驶汽车不符合某项标准与损害之间存在因果关系,换言之,受害人需要证明实际发生的损害正是该标准所旨在防范的风险。这样的证明要求对于受害人而言是否存在特殊的困难或者是否会妨碍受害人得到及时的救济,目前尚无法预测,有待于实践的进一步展开。
综上,由于自动驾驶系统的引入,在缺陷与因果关系认定方面,自动驾驶领域的产品责任在缺陷与因果关系认定方面面临着特殊困难,因而既需要检讨在既有的法律框架内是否存在进一步腾挪的空间,也要考虑创新责任机制可能的方向和路径。
1.证明责任倒置的可能性
对于证明困难,法律常通过重新分配证明责任来缓解受害人的救济困境。但是,由设计者和制造商证明产品没有缺陷,意味着他们要对“无”承担证明责任,这可能导致设计者和制造商须对几乎所有的自动驾驶汽车致损事故负责,与直接废弃缺陷要件无异。或许,仅在完全自动驾驶阶段,交通事故的发生概率由于自动驾驶技术的发展被降到非常低的范围内,这种责任方案才是可行的。
事实上,美国在过失侵权法实践中发展出来的“事物自道其缘”(res ipsa loquitur)法理以及在产品责任领域与之相对应的产品缺陷的“故障原理”(the malfunction doctrine),也并非是单纯的过错和因果关系举证责任倒置,而是要结合具体情形来推定过错与因果关系。在产品责任诉讼中,当情况表明产品的故障源于制造缺陷时,虽然缺乏直接证据证明产品存在制造缺陷,其制造商也会被要求承担责任。在过失侵仅诉讼中,当事故的具体情形表明产品的制造或者设计有过失时,“事物自道其缘”法理允许陪审团推定制造商(或设计者)存在过失。此时,制造商(或设计者)需要对其自动驾驶系统的表现提供详细的解释。
但是,有限自动驾驶阶段人类驾驶员与自动驾驶系统分享驾驶权限这一现实,使得“事物自道其缘”法理的适用面临困难,因为人类驾驶员的存在可能使得自动驾驶系统存在缺陷这一推定无法成立。因此,该法理更适于处理完全自动驾驶阶段之自动驾驶系统的缺陷和因果关系的推定问题。
2.重拾消费者的合理期待标准的可能性
鉴于运用风险—收益分析认定自动驾驶汽车的设计缺陷存在困难,有学者提出重拾消费者的合理期待标准。事实上,在欧盟法中,产品缺陷是指考虑到所有情况,产品没有提供人们所期待的安全性。这类似于消费者的合理期待标准。
但是,消费者的合理期待标准的缺点已如前述。尤其是,除了与人类驾驶员的可能表现进行比较以及在“人机互动”时要求机器适应人之外,由于自动驾驶技术的发展已经远远超出了普通人可以理解的范围,消费者究竟会如何预期以及其预期是否合理,确实是难以预料的。主张重拾该标准的论者,似乎是认为采纳该标准必然会导致制造商和设计者更有可能承担产品责任,所以同时主张用发展风险抗辩来加以平衡,以防止因让企业承担无法预测的风险而阻碍产业技术的升级与进步。但是,适用该标准会不会导致相反的效果,也未尝可知。
3.发展和完善安全标准
从充分救济受害人的视角出发,在缺陷判断的风险—收益分析存在困难的情况下,不断发展和完善关于产品安全的外部标准,是一种可能的方案。2017年9月,美国众议院批准的《自动驾驶法案》要求国家高速公路交通安全管理局逐步完善包括自动驾驶汽车在内的汽车安全标准或者安全范围,包括自动驾驶汽车的基本元素,如人机交互界面、传感器、促动器、相关软件和网络安全要求等,并要求该安全标准和安全范围应该定期审查和更新。美国交通部2017年9月发布的自动驾驶汽车指南《自动驾驶系统2.0:安全愿景》针对自动驾驶系统,也提出了12项自愿性安全标准。2018年10月4日,美国交通部发布了关于自动驾驶汽车的新的联邦指南——《自动驾驶汽车3.0:为未来的交通作准备》,3.0指南在强化2.0指南的基础上,为将自动驾驶汽车安全地统合到更为广泛的交通系统中提供了一个框架和多种可能的模式和路径。相较而言,我国在机动车安全标准针对自动驾驶汽车作出相应调整方面,还需要加快步伐。
当然,对于自动驾驶汽车安全和性能标准的探索,是一个渐进的过程,我们对此可以采取从指导性指南到强制性标准过渡的方式。此外,即使产品的设计或警示说明符合法定或行业标准,也不能就此认定其肯定没有缺陷,因为人们总是期待更安全的产品,且这种期待可以通过风险—收益分析或者其他途径而被正当化。
综上,无论是消费者的合理期待标准或“事物自道其缘”法理在产品责任中的应用,还是从监管层面确立自动驾驶汽车的安全和性能标准,都只能在一定程度上缓和受害人依产品责任获得充分救济的困境,却不能从根本上解决这一问题。
从价值立场来看,充分救济自动驾驶汽车致损事故的受害人应该成为法律机制调整或创新的主要出发点。从强弱力量对比来看,自动驾驶汽车的设计者和制造商都是实力雄厚的大型企业,与普通消费者相比,他们更能获得律师的专业服务,以防止被要求承担超出合理范围的责任;他们也更有能力影响、游说监管部门甚至是立法机构,要求制定对于他们有利的监管政策、安全标准甚至是法律法规。因此,救济事故的受害者也需要得到更多的关注。
事实上,产业发展与救济受害人应该是并行不悖的。如果不要求自动驾驶汽车的设计者或制造商承担符合公平正义观念的责任,消费者可能会怀疑设计者或制造商为了产业利益而将未臻成熟的自动驾驶汽车推向市场,从而使其购买或使用自动驾驶汽车的信心受到打击,导致消费者对自动驾驶汽车采取敬而远之的态度,这反而会影响产业的发展。要言之,一个人只有愿意对自己的行为承担责任,人们才能相信他的行为是合理的、是经得起检验的。这也是众多的自动驾驶汽车设计者或者制造商主动声明愿意承担责任的原因所在。事实上,沃尔沃总裁宣称将“对其自动驾驶模式下汽车造成的损失承担全部责任”;谷歌和戴姆勒也都提出,如果他们的技术有缺陷,他们将承担责任。因此,对于安全性的强调,可以鼓励而非阻碍自动驾驶汽车产业甚至是人工智能产业的发展;也只有在自动驾驶汽车的安全性得到极大强调的情况下,该产业的发展才是可持续的。
随着远程监控、无线升级、数据权利管理等技术的发展,以及诸如终端用户许可协议、费用协议、著作权声明等法律手段的运用,制造商或其他生产商与其生产的产品的联系越来越紧密,他们对产品的控制也越来越强。已有学者作出这样的展望:在自动驾驶时代,目前的私家车模式将逐步让位于购买交通服务的共享模式,从而使得自动驾驶汽车的制造商将同时成为车辆的保有人。美国学者也指出,一些关键公司(包括传统的汽车制造商,如福特和通用),已经开始尝试服务模式。原因可能包括希望对自动驾驶系统有更强的控制、获得更大的定价弹性、降低消费者的成本以及更能接近用户。在这种情况下,可以考虑在时机成熟时,将自动驾驶领域的产品责任和机动车保有人责任合并升级为辅之以保险的制造商的无过错责任,而不再考虑产品缺陷的认定问题,以为生产更安全的自动驾驶系统提供持续的激励,并充分救济事故的受害人。
本文旨在竭力反驳的一种甚嚣尘上的观点是,基于现有责任框架回应新的技术所存在的困难,就转而求助于自动驾驶汽车在本质上面向于技术的所谓的“自主性”,进而主张赋予其法律人格并由其自负责任。出乎意料的是,这种观点甚至在根本没有得到有力论证的情况下,就得到了产业界、立法者甚至学界不少人士的支持与赞同。这一局面的形成,背后当有巨大的力量推动之。
当新的技术带来了新的产业的时候,我们尤其需要关注两个方面的问题:一方面是,新的产业利益的获得需要哪些条件、由谁获得或者分享了产业利益;另一方面是,新的产业利益的获得以何为对价、新的产业模式可能带来的事故成本应该由谁来负担。从这个角度来看,论者所主张的“由自动驾驶汽车自负责任,为其设立责任基金并实行强制保险制度”的观点,只是限制了本来应该由制造商、设计者、销售商或者其他利益相关方承担的责任并将其在全社会范围内予以分散,而这种责任限制和责任分散的主要理由,就是将技术意义上的“自主性”错误地理解为主体意义上的自主性。希冀本文所做的努力,能够澄清这一误解。
需要指出的是,关于自动驾驶汽车的民事侵权责任的研究,本文只能算是一个开始:本文没有涉及黑客攻击这一薄弱环节可能对产品责任带来的影响;此外,本文虽然分析了机动车道路交通事故责任和产品责任可能的调整方向,但是未必能够跟上日新月异的人工智能技术发展的步伐。从根本上说,根据目前自动驾驶以及人工智能技术的发展状况,要针对自动驾驶汽车的致损事故制定出明晰且稳定的侵权责任体系,很明显是为时尚早。而且,最终的侵权责任体系除了取决于技术与法律两个方面的发展之外,也与自动驾驶汽车在现实社会中所采取的运营模式相关。是采取私享还是共享模式,是由制造商统一负责运营还是分化出专门的运营者,都会对最终的责任体系产生影响。对于上述种种不确定性,我们只能拭目以待,并随着实践的发展不断评估和调整自动驾驶的法律责任与保险机制。
— 相关链接 —
冯珏:民事责任体系与无过错补偿计划的互动——以我国疫苗接种损害救济体系建设为中心
点击阅读原文直达冯珏学者文集
欢迎关注
中国社科院
中国社会科学网
中国学派
法学研究
中国法学网
环球法律评论
国际法研究
法治蓝皮书
社科大法学院