查看原文
其他

人工智能迎来寒冬,自动驾驶汽车发展受阻

Russell Brandom CSDN 2018-08-19

怀疑论者表示全自动驾驶的完全实现,可能要比业界认定的还要遥远。



全自动驾驶汽车近在眼前?


如果你相信各大公司的CEO,那么感觉可能再过几个月全自动驾驶汽车就要实现了。2015年,埃隆·马斯克预测特斯拉将于2018年推出全自动驾驶汽车,Google也是如此。Delphi和MobileEye计划将于2019年推出四级系统,Nutonomy计划于同年在新加坡街头部署数千辆无人驾驶出租车。通用汽车将于2019年开始生产全自动驾驶汽车,这种车辆没有方向盘,也无法让司机介入——这些预测背后关系到的是资金的投入,这些公司纷纷下注赌软件的发展能够实现这些大肆的宣传。

从表面上看,似乎全自动驾驶汽车近在眼前。Waymo已经开始在亚利桑那州特定的公共道路上测试汽车。特斯拉和其他效仿者也纷纷开始出售功能上有限制的自动驾驶汽车,但如果有意外情况发生,这类汽车依然需要依靠司机进行干预。最近几起事故,有些是致命的,但是只要系统不断改进,从逻辑上说,我们距离没有人为干预的自动驾驶车辆不会太远了。

但是全自动驾驶汽车的梦想可能比我们想象中还要更加遥远。人工智能专家越来越担心,距离自动驾驶系统可以确保避免事故,可能需要数年甚至数十年。虽然自我训练系统可以应对现实世界的混乱,但是纽约大学的Gary Marcus等专家则认为重新审视这一问题不可避免,有人称之为“人工智能的寒冬”。这种延迟可能会造成整整一代人都无法实现全自动驾驶汽车,这会给那些依靠自动驾驶技术的公司带来灾难性的后果。



深度学习的通用化应用还不成熟


很容易理解为什么汽车公司对自动驾驶持乐观态度。

在过去的十年中,深度学习(一种使用分层机器学习算法,从海量数据集中提取结构化信息的方法)已经在人工智能和技术行业取得了惊人的进展:它加强了Google搜索、Facebook的News Feed、将会话语音转成文本的算法、还支持Go-playing系统。在互联网之外,我们用机器学习检测地震、预测心脏病,并通过摄像头检测行为,还有很多不计其数的创新。

但是深度学习需要大量的训练数据才能正常工作,几乎需要涵盖算法可能遭遇的所有情况。例如,Google图片等系统非常善于识别动物,只要有训练数据向他们展示每种动物的样子。Marcus称这种任务为“插值”,即扫描所有被标记为“豹猫”的图像后,确定新图片是否属于同一组。

工程师可以根据数据的来源和结构获得创意,但是已有算法的范围有严格的限制。除非已经看过几千张豹猫的图片,否则即便是同一个算法也无法识别豹猫——即使这个算法已经看过了家猫和美洲豹的图片,且知道豹猫是介于两者之间的东西。这个称之为“通用化”的过程需要一套不同的技术。

长期以来,研究人员以为他们已经通过正确的算法提高了通用化技术,但是最近的研究表明,传统的深度学习在实现通用化方面比我们想象的更糟。一项研究发现,传统的深度学习系统甚至难以在一个视频的不同帧上实现通用化,随着背景轻微的变化,深度学习会将同一只北极熊错认为狒狒、猫鼬或黄鼠狼。由于每个分类都汇总了数百个因素,因此即使是图片微小的变化也可以彻底影响系统的判断,这种现象被其他研究人员当作对抗数据集使用。



无人驾驶汽车深陷困境


Marcus指出聊天机器人热潮就是最近炒作通用化问题的一个例子。

“我们承诺于2015年推出聊天机器人,”他说,“但是它们没有什么帮助性,因为它不过是收集数据。”当你在网上与人交谈时,你不想重新讨论早期的对话。你希望他们回应你所说的话,利用更加广泛的会话技巧来做独特的回应。深度学习无法建立那种聊天机器人。最初的炒作过后,各个公司就会对聊天机器人项目失去信心,很少有人仍在积极地开发。

这给特斯拉和其他自动驾驶公司带来一个可怕的问题:自动驾驶汽车会像图片搜索、语音识别和其他人工智能的成功一样不断提高吗?它们会像聊天机器人一样在通用化的问题上卡壳吗?自动驾驶技术是插值问题还是通用化问题?驾驶真的很难预测吗?

现在可能还为时过早。Marcus说:“无人驾驶汽车就像一个我们不知道答案的科学实验。”我们从未实现过这个级别的自动驾驶,所以我们不知道它是什么类型的任务。在某种程度上,它需要识别熟悉的对象,遵守规则,现有的技术应该可以胜任。但是Marcus担心,事故多发情况下的驾驶可能比业界承认的还要复杂。“新情况的出现,对深度学习来说并不是一件好事。”

我们的实验数据来自公共事故报告,每个报告都提供了一些不寻常的难题。2016年特斯拉的那场车祸中,Model S汽车由于受到拖车的高度和太阳光反射的影响,全速撞上了一辆白色半挂车的尾部,今年3月,Uber的一辆自动驾驶汽车车祸撞死了一名推着自行车横穿马路(违反交通规则)的女士。根据美国国家运输安全委员会的报告,Uber的软件在做其预测时,首先将这位女士误认为不明物体,继而错认为一辆自行车,最后确认为一辆自行车。特斯拉在加利福尼亚州的一次车祸中,Model X在撞击发生之前突然转向障碍物并提速,原因至今不清楚。

每次事故看似都是一个极端的例子,工程师无法对这类的事情提前作出预测。但是几乎每次车祸都涉及某种无法预测的情况,如果没有通用化的能力,那么自动驾驶车辆不得不在每次遇到这些情形的时候,当作第一次来处理。结果将是一连串的意外事故,且随着时间的发展,这些事故次数不会减少,危险系数也不会降低。对于持怀疑态度的人来说,《无手动操作报告》的转变表明这种情况还将继续,且将维持一定的稳定水平。

Drive.AI创始人Andrew Ng是前百度的高管,也是该行业最著名的推动者之一,他认为问题不在于建立完美的驾驶系统,而在于培训旁观者预测自动驾驶车辆的行为。换句话说,我们可以为汽车提供安全的道路。作为一个不可预测案例的例子,我问他是否认为现代系统可以处理行人玩弹跳杆的行人,即使它们以前从未见过。Ng跟我说:“我认为很多自动驾驶车辆团队可以处理在人行横道上玩弹跳杆的行人。话虽如此,在高速公路上玩弹跳杆是非常危险的。”

他说:“我们应该和政府合作,要求合法并得到人们的体谅,而不是通过人工智能来解决弹跳杆的问题。安全驾驶不仅仅与人工智能技术的质量有关。”



人们应降低对自动驾驶汽车的期望


深度学习不是唯一的人工智能技术,许多公司已经在探索代替方案。虽然这些技术在业界受到严密保护(单从最近Waymo起诉Uber就能看出来),但是许多公司已经转向基于规则的人工智能,这是一种较老的技术,可以让工程师将特定的行为或逻辑写死到其他自导系统中。它没有通过研究数据来编写自我行为的能力(而深度学习恰恰是因为这种能力引起了关注),但是它可以让这些公司避免一些深度学习的局限性。由于深度学习对基本感知任务的影响仍然非常深刻,因此很难说工程师如何才能成功地检测出潜在的错误。

身为Lyft董事会的风险资本家Ann Miura-Ko表示,她认为问题的一部分是对自动驾驶汽车本身的高度期望,所以大家将无法全自动视为一种失败。 Miura-Ko说:“希望它们从零级一跃到五级不等于技术的失败,更像是不应有的期望。我认为所有这些微小的进步都对迈向全自动驾驶有着非凡的意义。”

不过,我们还不清楚自动驾驶汽车还要在目前的困境里持续多久。像特斯拉的自动驾驶汽车等半自动的产品也足够智能,可以处理大多数的情况,但是如果发生不可预测的情况,仍然需要人为干预。

当出现问题时,很难判断是汽车还是司机的问题。对于一些评论家来说,即使出错不能完全归咎于机器,这种混合驾驶也不如人类驾驶员安全。根据兰德公司一项研究估计,自动驾驶车辆必须在不出现任何死亡事件的情况下,行驶够2.75亿英里才能证明它们和人类驾驶员一样安全。特斯拉的自动驾驶汽车出现第一次死亡事件时的行驶里程数大约为1.3亿英里,远远低于标准。

但是,利用深度学习控制车辆如何觉察物体并决定应对,提高事故发生率比看起来更难。杜克大学教授Mary Cummings表示:“这不是一个简单的孤立问题,”他指今年早些时候Uber车祸导致一名行人遇难。“这起行人死亡事件中的感知决策周期是相互关联的。由于感知的模糊导致了错误决定(不做处理),而且因为它从感知器上得到了太多的错误警报,所以导致没有刹车。”

起车祸导致Uber暂停了夏季的自动驾驶车工作,对其他公司计划的推出是一个不祥之兆。在整个业界内,各大公司正在竞相争取更多数据来解决问题,并假设拥有最高里程数的公司将建立最强大的系统。但是这些公司看到的是数据问题,而对于Marcus来说这是更难解决的问题。

Marcus说:“他们只是在使用他们希望能够成功的技术。他们依靠大数据,这是他们赖以生存的根本,但是没有任何证据可以达到我们所需要的精确度。”

原文:https://www.theverge.com/2018/7/3/17530232/self-driving-ai-winter-full-autonomy-waymo-tesla-uber

作者:Russell Brandom,The Verge的记者。主要负责报道网络、文化、法律、电影以及其他感兴趣的方面。

译者:弯月,责编:郭芮



    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存