其他

AI监管,长路漫漫

2017-10-28 William Vorhies AI前线



作者|William Vorhies
译者 | BrotherZhao
编辑|Emily
国家政策对新兴科技的影响不可忽视。文章从美国和德国对无人驾驶车辆的最新监管政策出发,如德国侧重无人驾驶引发的道德和伦理分歧而美国留有更多的余地,分析了无人驾驶技术面临的社会问题和政策限制。


2017 年 9 月 6 日,美国众议院发布了 116 页的《联邦自动驾驶车辆政策》(Federal Automated Vehicle Policy)。这一政策还需要经过参议院批准,不过据说不会太久。同样有意思的是,两周前德国联邦政府刚刚发布了高度自动化车辆 (HAV) 指南。

欢迎政府监管新兴技术的情景是很罕见的,比如监管 AI 技术。不过,当下的情景确实需要监管。


 我们为何欢迎监管


首先,在所有 AI 可能被应用之处,HAV 是最有可能保护人类生命的,也是最有可能危害人类生命的。工业机器人,聊天机器人和扫地机器人并不在我们的关注范围之内。也许我们该关注的目标是送货无人机甚至运输无人机,但是现在为时尚早。

HAV 如果应用得当,将能够大大提高生产效率并降低成本。如果发布太早, HAV 更可能威胁人类安全和疏远未来的潜在消费者,而不是减少事故。

从当下普通轿车和卡车在美国和德国受到的监管来看,监管是不可避免的了。此处应当实现的是相对宽松的管理手段,在新晋驾车群体敢于采用新技术的同时,又要不阻碍创新脚步和创新成果应用。

采用 HAV 不是灌篮,不能一蹴而就。Gartner 的汽车消费者趋势报告(Consumer Trends in Automotive)指出,最近在美国和德国的调查显示,55% 的受访者表示不会乘坐完全自动驾驶的汽车。然而 70% 的受访者表示,如果汽车只是部分自动驾驶的话,他们还是愿意的。

坦白地说,我的看法是,普罗大众没有被媒体炒作迷住双眼,他们需要信心保证——而这只有监管政策才能提供。


 美国的做法


NHTSA 公布的政策可谓是监管世界的一股清流。美国至少有 20 个州都颁布了法令,要管制 HAV,而这一地方分裂策略即将使得阻碍创新成为压倒性的潮流。

所以,美国联邦要自己设定无人驾驶车辆的整体安全指标和性能指标,而将如下部分留给各州自己定夺:

  • 向(人类)司机颁布驾照,注册机动车辆

  • 颁布执行交通法律法规

  • 在联邦选择进行安检的地区执行安检,以及

  • 监管机动车保险和责任

当根本不需要有驾照的司机在车上的时候,或者类似地,在发生事故时应当由谁负责的问题上,联邦政府为自己留下了足够的腾挪空间,可以自由决定如何处置他们(制造商,所有者,司机)。


 新政策涵盖哪些方面?


在自动驾驶的 6 级分类模型中,0 级代表没有自动化,5 级是完全自动化,系统可以在任何条件下执行所有驾驶任务。新政策的适用对象是 3 级及以上的自动驾驶系统。当然了,更宽泛的标准也适用于 1 级和 2 级的部分自动驾驶阶段。3 级基本上就是特斯拉当前的水平,或者说是特斯拉正在迅速接近的水准。在这一水准下,自动驾驶系统可以在部分时间内执行部分驾驶任务,同时人类随时可以接管驾驶任务。

新的政策对以下四个方面提供指导:

  • 无人驾驶车辆的车辆性能指导

  • 无人驾驶车辆模型的国家政策

  • NHTSA 当前的监管工具

  • 新的监管工具和权限


 也有好消息


尽管美联邦保留了在未来指定具体性能标准的权限,当下他还没有任何具体操作。目前通用的指导准则是,公众所驾驶且已部署 HAV 的车辆,必须达到或超过现有机动车辆和安全标准。

汽车制造商目前会在以下 15 个领域进行自我认证:

  • 数据记录和共享

  • 隐私

  • 系统安全

  • 车辆网络安全

  • 人机接口

  • 耐撞性

  • 消费者教育与培训

  • 注册和认证

  • 碰撞后表现

  • 联邦,州和当地法律

  • 道德考量

  • 操作设计领域

  • 物体和事件的检测和响应

  • 倒退(最小风险条件)

  • 验证方法

除了一般的安全性要高于非自动驾驶车辆之外,目前对于无人驾驶车辆没有具体的性能指标要求。这就为创新提供了极大的自由空间,同时也可以未经政府提前许可就提供持续不断的更新。这些更新更多的是通过网上的软件更新,比如联网升级 Windows 系统一样,而不必非得到维修店现场修复。

没有规定比一般安全性以外的特定性能要求高于非 HAV。这允许在未经政府批准的情况下,实现最大的创新灵活性并保证部署的 HAV 能够不断更新。这些升级最有可能作为网络上的软件提供,使得它们更像是获得 Windows 更新,而不是前往您当地的维修厂。

这样一来,每个汽车制造商可能会部署 10 万辆 HAV。这里的“部署”指的是真正由普通消费者驾驶。美国版本的监管政策包含了重型卡车,而德国版本的监管政策并未包含。二者导致的数量差异或有些许,但政策的权衡意味却是十分一致的。

当前大约有 35 家公司(包括零部件供应商)正在测试 HAV,这意味着,在短短几年内,我们就可以有至少 300 万的 HAV 能够完善 AI 系统。


 德国的做法


目前为止,德国的政策更加宽松(尽管可能会变),但却是聚焦在另一个方面——HAV 应用的道德和伦理分歧。

此处引用了自动驾驶伦理委员会(Ethics Commission on Automated Driving)的报告。此报告由联邦部长亚历山大·多布林德特(Alexander Dobrindt)提出,并经由内阁通过。

亚历山大·多布林德特(Alexander Dobrindt)指出:

“在涉及数字化和自主学习系统的时候,人机交互带来了新的伦理问题。自动驾驶和联网驾驶是最新的创新成果,人机交互在此处得以完全应用。BMVI 的伦理委员会已经完成了绝对先驱性的工作,开发了世界上第一套自动驾驶规范。我们正在完善这一规范,并据此在移动 4.0 时代继续保持全球领先地位。”

报告全文包含了 20 条要点,以下是重点:

  • 如果自动驾驶和联网驾驶比有人驾驶造成的交通事故更少,那他们在伦理上就是必要的。

  • 人身安全优于器物安全:在发生危险时,保护人类生命始终是首要任务。

  • 如果事故无法避免,不允许任何根据个人特征(年龄、性别、身体状况或精神状况)进行的人群评级。

  • 在任何行驶状态下,都必须明确谁为驾驶负责:是人,还是计算机。

  • 不论谁在驾驶,必须记录在案(例如,澄清可能发生的追责问题)。

  • 原则上,司机必须具备传输和使用自己车辆数据的决策能力(数据主权)。

该报告的核心在于,如果事故不可避免,则必须优先保护人类而非动物或财产。最重要的是,乘客的任何特征,包括乘客人数与可能受伤人数的对比,都不应在 HAV 的考虑范围之内。尤其需要特别指出的有年龄、性别、身体状况、精神状况。

很多读者都会意识到,这是古老的电车难题。在电车难题中,驾驶员必须在最后一刻做出决策, 47 28380 47 13307 0 0 8462 0 0:00:03 0:00:01 0:00:02 8459谁以及多少人将会受伤,而另外的人将会获救。

任何哲学专业的大一学生都会明白,电车难题无解。德国人的考虑点在于,必须保证不让 AI 做这个决策。

不幸的是,当 AI 占据统治地位的时候,在谁将决策或者如何决策上, 他们都沉默不语了。


 美国关于电车难题的政策


NHTSA 发布的新政策并未对电车难题视而不见,而是采取了更微妙的方法。这一方法为监管提供了更多的空间。NHTSA 的新政策认为,肯定会有数不清的场合,安全性、机动性和合法性三者会产生冲突。

他们只是提出了,不论 AI 中嵌入了何种规则,这些规则必须是完全公开透明的,并且可供政府、汽车制造商和驾驶者 / 乘客之间讨论和协商。在暂无解决良策的情况下,静观其变或许是当下可为的最佳指导策略。


 缺失了什么


很遗憾,我发现政策中有一项内容是缺失的,那就是用于即时定位和绘图的车车联网(在 HAV AI 社区称为 SLAM)。

目前,汽车制造商将 HAV 传输回去的数据作为自身财产。在大多数情况下,这是合情合理的。然而,我们过去曾经争论过的例外情形是,由 HAV 收集的、关于即时路况信息的任何新的信息,都应该与所有人共享

这些信息可能是建筑施工引起的道路不同,或者住宅生活区街道中间的垃圾桶。由于 HAV 同时依赖于地图和壁障逻辑,所以一辆 HAV 感知到的任何道路破坏信息都可以及时分享给视野内的其他 HAV。汽车之间的信息传递也可以极大简化复杂的行驶环境,比如迂回路段。

以政府权威推动当前有限的信息共享是一种可取的方式。或许在未来不同的 AI 系统性能有高有低,而 NHTSA 指定的值为最低性能指标的时候,这一天才会到来。

然而 ,就当下而言,我们很欣慰地看到,美国联邦虽然监管手段温和,却已经介入,为在更复杂的真实世界应用的 HAV AI 系统开了绿灯。我们希望他们的监管手段保持温和。我个人很期待自己的首次自动驾驶之旅。

阅读英文原文链接:

https://www.datasciencecentral.com/profiles/blogs/regulating-ai-the-road-ahead





您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存