观点 | 人工智能相关法律规则和伦理问题的初步探讨 ——以无人驾驶汽车为例
2016年年初,AlphaGo击败李世石的事件,将人工智能推向前台,成为举世焦点。系列探讨随之而来。机器人是否全面超越人类智识?未来是否会大面积取代人类,甚至消灭人类?人机共存社会前景究竟如何?机器人到底是附带技术特征的人类伴侣,还是一种劳动工具?诸如此类问题激荡人心,也从另一个侧面反应出人们对未来社会生产关系和社会架构可能被机器人颠覆的深重忧虑。
回答上述问题,需要对人工智能具有深切理解,但就目前发展阶段而言,暂时不太可能出现终极答案。人工智能的发展,从始至终都是多学科、多领域、多产业共同作用的结果,如,信息科学、语言学、生命科学、脑科学等等,而在这些技术学科之外,还涉及人文、政治、法律、伦理、意识形态等更加纷繁复杂的领域。
本文尝试从法律规则和伦理角度对人工智能进行提前探讨。案例选择上,考虑到未来无人驾驶汽车最终的产业方向是集感知模块、中央决策模块和底层控制模块为一体,甚至融合生物功能和感知神经器官的一种汽车机器人,某种角度看,百流入溪,百溪汇海,无人驾驶汽车未来极有可能融入人工智能产业,因此,本文挑选无人驾驶汽车为标的,以希望涵盖机器人、汽车、人工智能等一众元素。
引发法律问题和伦理争议的场景是,无人驾驶汽车在公共道路上致人伤亡、致财产毁损灭失的法律责任承担。对其发展脉络,如果按照美国道路交通安全局的分类标准,伴随着汽车自动化技术的逐级进阶,人类也将从驾驶任务中逐步抽离,即,“解放双手”到“解放四肢”,再到“闭上双眼”,而这一过程,也恰恰是汽车自动化系统承担越来越重法律责任的过程。理论上,人类的责任会逐级减轻,汽车制造商责任的责任将逐步加重,责任承担的主体移转将伴随着汽车自动化技术发展的全过程,并且这一趋势基本是不可逆的。在完全无人驾驶阶段,汽车厂商除了承担产品责任之外,还将承担道路交通事故的安全责任,双重责任的陡然叠加,将使得汽车生产厂商不堪重负。法律问题之外,对于一种既可以看作是机器人,又可能在公共空间内致人伤亡的本质上具有危险物品属性的无人驾驶汽车而言,目前人们所谈论的众多伦理问题,也具有其自身特殊的现实意义。
在上述场景之下,完全无人驾驶汽车的法律责任分配和相关伦理问题,极有可能对产业发展前途产生掣肘。本文尝试提以下解决出口,仅供探讨为用。
第一,对于法律责任的承担,其基本原则应当从“法律责任疏解”转变为“法律责任锁定”,最少三个层面免于承担责任。
无人驾驶汽车一旦上路,就等于进入一种开放式环境,并随之启动自我学习和自我更新功能,在日复一日的与外界环境的互动之下,最终行为将远远脱离制造商预期,众多法律风险也将不可控,因此,责任承担的基本思路应当有所转变,从“疏解”变为“锁定”,即,制造商只对出厂前在封闭环境下生产出来的无人驾驶汽车的产品质量负责,车身搭载的自动化系统、软件代码、硬件等等全部标准化,出厂前历经严格备案和登记,以出厂节点为界,法律责任就此切断。
具体包括三种免责。一是出厂之后,轮式机器人通过自我学习和自我更新所产生的新程序,以及由此衍生出来的行为,制造商不承担责任。二是任何第三方通过开放系统平台接入的应用,改写的软件代码,制造商免责;三是使用者的衍生责任不应当再往前追溯到汽车制造商,相关案例可比照美国《通信内容端正法案》对网络服务提供商的免责,美国《联邦枪支管理规定》对枪支生产企业的免责等。
第二,对于伦理困境,按照“代码即法律”的原则,一部分遵循现有解决方式,另一部分依照社会的公序良俗(公共秩序和良善风俗)解决,将答案以代码形式嵌入轮式机器人体内。
自1921年Karel Capek《罗素姆的全能机器人》创造伊始,机器人就与普通社会的人文价值挂钩,此后若干年,从《终结者》到《黑客帝国》,人最终都成为机器人的俘虏,作品悲剧结局所体现出来的伦理困境,在过去、现在和将来,都与机器人产业相伴相随。目前,与无人驾驶汽车有关的众多伦理问题被提出来广泛讨论,而大部分问题其实都集中在紧急状态下的撞击选择,归类如下:
场景1:左边是6岁幼童,右边是80岁耄耋老者,选择撞谁?(行人冲突类)
场景2:车辆在山间道路行驶,左边是1个人,右边是万丈悬崖,但汽车上坐着10个乘客,怎么选?(行人和车内乘客冲突类)
场景3:左边是无腿乞丐,右边是宾利,怎么选?(行人和财物冲突类)
场景4:左边是戴了头盔的骑行者,右边没有戴,怎么选?(无解类)
上述场景假设反应了人类对完全无人驾驶汽车所持有的焦灼心态,从探讨角度,提出以下解决出口。
法律解决一部分问题。按照各国民法、物权法、人身权等法律规定,少数问题是可以从法律角度尝试回答的。比如,人身权和物权冲突,人身权优先;人身权数量冲突,多数优先;财产权冲突,价值高的优先。
伦理解决一部分问题。比如幼童和老者之间、男人和女人之间、残障人士和健康人士之间如何取舍等问题,需要交给特定范围(某一国或者某一地区)的公民社会自行投票解决。考虑到当地历史、文化、公民伦理倾向等因素,各地各国结论一定会有很大差异。但对于伦理问题的处理,一般只要取得该公民社会超过半数以上的共识,即可将答案转换成代码,嵌入轮式机器人的选择系统。
剩下的问题,在法律和伦理两个层面都是无解,只能交给人工智能进行决断。比如对于场景4所提的有无戴头盔的选择问题,从最大限度减少人身伤亡的角度,仿佛应该选择戴了头盔的进行撞击,但从遵纪守法角度,带了头盔的又恰恰是守法的一方。此类问题的设定充满抬杠思维,从伦理、法律、情感各个角度都无解,只能交给人工智能系统进行随机决断。
总体上看,技术的发展从来都是祸福相倚。人工智能不是天上掉落,而恰恰是人类对自身劳动功能、社会功能,甚至生物功能的主动拓展,人类被自身主动开发的智能工具超越,其实也是一种自我战胜。至于未来,人机之间究竟如何共处,人机共存社会究竟按照何种规则运转,需要我们从法律、伦理、政治、宗教等多角度全面衡量,未雨绸缪,在人工智能对人类社会造成重大影响甚至产生对抗之前,提前设定规则,以免人类有朝一日被自己亲手造出的智能工具淘汰出局。
作者简介
沈玲:中国信息通信研究院政策与经济研究所法制与监管研究部助理研究员。毕业于北京大学法学院,法律硕士。主持和参与的研究项目有《各国电信法制制度跟踪》、《互联网法律制度研究》、《通信服务业应对GPA谈判具体策略研究》、《电话实名制立法研究》、《全国邮政业运行状况分析》等。E-mail:shenling@caict.ac.cn
推荐阅读
权威发布 | 互联网域名发展如何?快下载《互联网域名发展和管理报告(2016年)》