【前沿2】《自动驾驶的监管挑战:面对悲剧性选择人工智能如何决策》阅读报告
Antje von Ungern-Sternberg, University of Trier(Germany) :Autonomous Driving: Regulatory Challenges Raisedby Artificial Decision-Making and Tragic Choices,Electronic copy available at: https://ssrn.com/abstract=3049653
🌹🌹免费分享:需要英文全文的朋友,请在本公众号回复“2”!
前沿栏目·第一季第19篇(总第69篇);
Autonomous Driving:
Regulatory Challenges Raised by Artificial Decision-Making and Tragic Choices
阅读报告
人工智能意味着人工智能决策取代人的决策。本文考察了这种发展对自动驾驶汽车和人类驾驶员同时操作的交通法规密集地区所带来的挑战。主要讨论:如果人工智能无法避免交通事故,面对悲剧性选择时,应该如何决策呢?
与其他更为公开化的法律领域相反,道路交通法通常适用于人造代理人的运作,即使在国际公约中对人“驾驶员”的要求仍需要修改。因此,现在由立法者和其他监管机构澄清法律框架。
为了确保自驾车遵守法规,监管机构必须监督程序员如何将交通规范转化为计算机代码,并且必须为人工实况调查制定可靠性标准。机器学习,这将可能成为一个重要的实证调查和有意义的法律依从的方法,如果这个过程是受到监督的,并且其结果是可以解释和合理的,那么这与法律的首要地位是不相容的。
此外,监管机构必须处理由人为决策造成的偏见,正如本文所述,关于碰撞算法的悲惨生死决定。碰撞算法提高法律应该可以控制的法律问题,而不仅仅是道德问题。这样做,监管者履行了从人权,即生命权,平等权和人的尊严中流出的积极义务,这也应该通常指导监管的选择。
更确切地说,碰撞算法本身不会侵犯人的尊严,应该反映法律秩序的优先权,不得使用种族,性别或年龄等个人特征来选择潜在的事故遇难者。然而,监管者可能会规定死亡人数最小化,规定风险领域或诉诸责任,作为这些不幸决定的相关标准。
(图片来自网络)
一、自动驾驶
美国国家公路交通安全管理局(NHTSA)在2013年建立的分级标准(从0级 - 没有自动 - 到4级 - 完全自动),或由SAE International (前身为汽车工程师协会)的工程师及相关技术专家私人协会于2016年提出(标准J3016,范围为0至5级)(表1)。 SAE分类比NHTSA分类更有区别并且现在也已经被NHTSA采用。
附:(表1:SAE国际标准定义的驾驶自动化水平J3016)
Human driver monitors the driving environment | |
Level 0 No Automation | The full-time performance by the human driver of all aspects of the dynamic driving task, even when enhanced by warning or intervention systems |
Level 1 Driver Assistance | The driving mode -specific execution by a driver assistance system of either steering or acceleration/deceleration using information about the driving environment and with the expectation that the human driver perform all remaining aspects of the dynamic driving task |
Level 2 Partial Automation | The driving mode-specific execution by one or more driver assistance systems of both steering and acceleration/ deceleration using information about the driving environment and with the expectation that the human driver perform all remaining aspects of the dynamic driving task |
Automated driving system (“system”) monitors the driving environmen | |
Level 3 Conditional Automation | The driving mode-specific performance by an automated driving system of all aspects of the dynamic driving task with the expectation that the human driver will respond appropriately to a request to intervene |
Level 4 High Automation | The driving mode-specific performance by an automated driving system of all aspects of the dynamic driving task, even if a human driver does not respond appropriately to a request to intervene |
Level 5 Full Automation | The full-time performance by an automated driving system of all aspects of the dynamic driving task under all roadway and environmental conditions that can be managed by a human driver |
自动驾驶汽车中的驾驶决定是由汽车(或者相应的算法)而不是由驾驶员进行的。
二、人工智能
人工智能描述了人为因素的理性行为或智力结果。这意味着这些电脑代理“自主运作,感知自己的环境,适应变化、创造和追求目标。”机器学习意味着人工智能代理通过经验,即通过培训,而不是通过一个固定的程序来改善他们的行为。算法分析数据,检测模式,建立或优化模型,主要基于统计计算,以完成给定的任务。学习算法也可以用于自驾车,不仅用于图像识别,而且用于安全气囊展开或者用于找到最佳路径车道。因此,人工代理决策不一定意味着使用机器学习。
人工智能决策如何适应现有的法律框架?首先,智能代理人的“决策”一词并不意味着人类的自由意志。相反,这取决于这些代理人在日益开放的环境中运作的事实。其次,法律优先于技术。法律决定了人造代理的许可操作,反之亦然。因此,影响自驾车的每一项法律规范都必须得到尊重。
根据权威数据显示,全球道路交通事故每年夺去130万人的生命,其中90%以上事故是人为因素造成的,随着汽车电子和车联网技术的快速推进,智能联网汽车成为大势,其意味可以实现车与车、车与人、车与外部基础设施之间的相互通信,增强车辆外和视线外的感知能力,从而使驾驶变得安全高效,这在很大程度上可以避免事故发生。如果人造代理人在法律规范所界定的环境中运作,就会出现一些挑战:
1.人造代理人不具备法律依据;
2.人为因素在确定具体事实方面遇到困难(路上实况调查的可靠性);
3.即使它们可能有助于抵制人类的主观判断,算法也会带有偏见(事故发生前的生死决定)。
人为操作者的要求(人为因素的法律依从性)
1.将法律转化为算法
道路交通法的法律规范必须转化为算法。法律必须规定学习算法自下而上的规则制定的条件。机器学习有不同的模式,可以进行不同程度的人类输入和控制。
2.确定事实
独立的代理人遵守法律不仅需要正确理解法律,而且还要了解相关事实。自动驾驶认可自己的环境的可靠程度是一个技术性问题,确定可靠性程度是一个监管选择,算法必须超越人的能力,才能维护道路交通安全,提高对安全自主驾驶的信心。
一、困境及其法律维度
长期以来,哲学家和刑事律师一直在讨论生死窘境,即每一种可能的决定都会造成悲惨结局的情况。目前正在讨论自动驾驶汽车的生死攸关的算法,作为道德和道德问题。然而,生死攸关的算法提出了重要的法律问题,因此应该受到法律的规制。现在可以提前为这样的算法创建一个有意义的法律框架回顾性地判断一个人在极端情况下的表现。对碰撞算法的规定可以理解为履行积极的人权义务(必须为每个人权制度单独制定)。人权考虑也恰恰表现了赞成政府监管的具体合法利益。
二、具体的法律问题
1.算法死亡与人格尊严
如果一个社会希望享受自驾车的好处,包括大量减少交通死亡事故,那么拥有算法来设计关键的生死决策将是必要且合法的。
2.优先事项:生命,健康,财产
在确定碰撞算法不与人的尊严相抵触之后,必要的监管决定对划定界线至关重要。
3.人生的特点和平等价值
以受害者的种族,性别,年龄和其他个人特征为目标的碰撞算法是非法的。
4. 自我牺牲和自我利益
利他主义和利他主义的决定不仅是生死攸关的问题。
5.数字
国家可能会规定一个死亡人数最小化的碰撞算法,但并非一定要这样做。
6.进一步的监管选择:风险和责任领域
监管机构可以首先规定成为车祸受害者的风险。即使这些风险到目前为止还没有确定,立法者现在可以对碰撞算法进行相应的编程设计。
人工智能意味着人工智能决策取代了人的决策。为了确保自驾车的合法性,监管机构必须监督程序员如何将交通规范转化为计算机代码,并且必须为人工实况调查制定可靠性标准。
一、由立法者和其他监管机构澄清法律框架。
为了确保自驾车的合法性,监管机构必须监督程序员如何将交通规范转化为计算机代码,并且必须为人工实况调查制定可靠性标准。
二、监管机构必须处理由人为决策造成的偏见。
碰撞算法提高法律应该可以控制的法律问题,而不仅仅是道德问题。在这样做的过程中,监管者履行了从人权,即生命权,平等权和人的尊严中流出的积极义务,这也应该普遍指导监管的选择。
自动驾驶技术是人工智能应用如何改变我们日常生活的最引人注目和最明显的例子。自动驾驶汽车将大大提高道路交通的安全性、机动性和便利性。但是自主驾驶也可能带来负面影响以及人为决策所带来的法律挑战。作者着眼于人为决策的法律框架对面临悲剧性选择时所产生的法律问题进行详细描述。即自动驾驶汽车在行驶过程中首先应该保护的是人,而不是物质财产或动物。控制汽车的软件必须设计成不惜一切代价在事故中避免出现人员伤亡。这也就意味着,当事故是可避免的,控制软件必须选择不惜一切代价将人员伤亡降到最低,尽管这也或许会造成财产或路上的动物遭到损毁。
自驾车人为决策的规制可能只是如何组织人与人之间共存的一个例子。因此,自动驾驶时代的来临,不仅需要技术的革新和进步,还需要配套健全的法律法规,自动驾驶的发展过程将是一条漫长艰苦的道路。
Antje von Ungern-Sternberg, University of Trier(Germany) :Autonomous Driving: Regulatory Challenges Raisedby Artificial Decision-Making and Tragic Choices,Electronic copy available at: https://ssrn.com/abstract=3049653
🌹🌹免费分享:需要英文全文的朋友,请在本公众号回复“2”!
- END -
请扫描下面二维码,赶紧关注我们吧!