谈谈6月1日台湾嘉义特斯拉事故
两位当事人在事后向媒体描述了当时的情形:
特斯拉车主:事故发生时,车辆开启了Autopilot 功能,时速约为110 Km。当时并未注意到前方车辆侧翻,在撞击前2秒才进行了紧急刹车。
货车司机:我当时已下车等待救援,看到特斯拉使来还不断挥手示意。
事故分析
特斯拉除了有环绕车身的8个摄像头,还有12个毫米波雷达,以及160m长距离毫米波雷达,这里的问题在于特斯拉的雷达是用来测量和跟随前车速度的,远距离雷达物体识别效果很不好,在自适应巡航过程中,摄像头识别汽车后,才会调取雷达的测速信息,做感知融合,提前启动AEB。这次撞车和之前的从白色大卡车下面钻过去的原因是一样的,由于摄像头是根据周围物体的颜色和光照对障碍物进行识别,所以白色和强烈的光照会让摄像头误认为前方并没有障碍物。而前方车辆与环境颜色相近,则可能诱发事故。再加上之前的深度学习模型里没有出现这种场景,所以感知失败了。
雷达的物体识别,滤波及聚类是必要操作,大卡车横置,意味着整整半个多马路的雷达反射面,这种情况下,对前车的识别聚类,它的阈值没能覆盖到这么大横宽的车体,在滤波中会把这种情况当做噪声。
只要毫米波雷达在100多米外没正确检测到障碍物,后面视觉系统对白色超大车身几乎是没有办法的,误判是很正常的,而且我们也不知道这台特斯拉装载的是哪个版本的AP系统,也许是很老的,那就跟国外的那几起事故没什么区别。
在长距的时候,如果毫米波雷达的结果跟视觉的结果如果不一致还需要仲裁,仲裁的依据和结果都很重要。雷达和摄像头在每一时刻的数据在做融合和博弈,也许150m的时候雷达没有识别出大卡车,100m的时候识别出了,但是博弈失败了,直到最后30m的时候雷达的结果可靠度很大,博弈是赢了,但也来不及了。在高车速情况下基本上就是致命的。没有基础设施的通信协同,自动驾驶就是玩具。
如果在“不需要刹车时刹车”,和在“需要刹车时不刹车”中二选一,你会怎么选?相信90%以上的人都会选择前者,因为后者一旦发生或将是致命的。
但实际结果却恰恰相反,对于在Autopilot领域内的工程师们来说,无一例外都会选择后者。这样一种听上去极其危险的设定,却是工程师们故意为之,到底是为什么呢?
以目前的自动驾驶技术来看,尚不能够实现完全的自动驾驶。即便硬件的科技含量很高,前期也做了多次实验模拟。但是在实际的道路环境中,还是会出现许多系统无法判断的情况。一般在遇到这种情况时,系统只有两条路选择:“误报(False Positive)”和“漏报(False Negative)”。也就是说,在系统不能明确判断前方是否有障碍物时,是应该当即制动以防万一,也就是误报。还是应该忽视掉这个不确定的危险,也就是漏报。
在很多人看来,系统的设定应该为误报倾向,本着“宁可信其无,也不信其有”的精神,才能最大程度避免事故的发生。但事实并不是这个样子,试想一下:在高速公路上,你开启了Autopilot,后面有辆车正在高速逼近,而前方一片开阔。这时,前方路面出现了一块大钢板,雷达判定为这是一个巨大障碍物,于是采取了紧急制动,后车来不及反应……
最安全的方案就是减速。
尤其是对于毫米波雷达来说,它对金属的反射很敏感。路上的钢板、凸起的井盖,甚至易拉罐的底部,在毫米波雷达的眼中,都相当于一堵墙。对于这种过于复杂的实际路面情况,车辆莫名制动所带来的不良驾驶体验不说,危险系数也会更大。
所以,工程师们才会采取“漏报”的逻辑,改善驾驶体验的同时,也避免过多制动行为所带来的安全隐患。但是,一旦系统漏报了任何一个确实存在的危险,都极有可能酿成大祸,这也就是为何目前各品牌官方都在强调“开启Autopilot功能时,双手也不应离开方向盘”。以便时刻做好准备,由驾驶员接管车辆。
而且特斯拉也在用户手册中明确写道:
再回到这次事故:为什么声称“全系在产车辆都将能够完全自动驾驶”的特斯拉,却连几百米开外可见的障碍物都躲不开呢?我们可以就特斯拉比较知名的几起事故来分析一下。
2016年5月,一辆特斯拉ModelS电动车在使用Autopilot模式行驶途中与一辆正在转弯的拖挂车相撞,导致驾驶者死亡。对于这起事故,特斯拉是这样解释的:
虽然官方对于这起事故并没有给出明确而有力的解释。但作为行业内的工程师,结合智能驾驶技术的发展以及所遇到的各种困难,我们不妨作出以下推断:就硬件设备上来看,当时那辆特斯拉配备的是第一代Autopilot系统,即来自Mobileye的前置摄像头、来自博世的毫米波雷达、以及12个超声波传感器。在优先级别上,是以摄像头为主导的。
虽然特斯拉官方将原因归咎于强烈的日照,以及白色车身,导致摄像头没有看到拖挂车,造成事故。但或许这些只是次要原因,关键问题很有可能在于:这代系统采用的Mobileye摄像头更多做的是针对车头和车尾的训练,而对于车侧的训练有限,又遇到拖挂车这样比较特殊的造型。因此摄像头从轮廓上来分析,并没有把它当做是障碍物。又由于拖挂车的底部是空的,毫米波雷达在进行扫描时也没有获取合理的反射。或者是判断出前方的拖挂车可能会有危险,但是由于摄像头作为主导,因此毫米波雷达的执行度不够高。两个模糊的判断叠加在一起,系统决定“漏报”,所以才导致了事故的发生。
Mobileye公司的一名高管Dan Galves也在事故后表明:
所以,在同年的9月份,特斯拉也宣布升级Autopilot技术。第二代Autopilot将以雷达而非摄像头作为主导来进行判断,通过车身配备的8个摄像头以及12个传感器,更好地感知周边的情况。同时在设定上也有所调整:如果司机在一定的时间内没有手扶方向盘,系统将发出警报,而如果司机多次忽略系统发出的警报,自动转向软件将自动停止使用。
声明还称:
这样看来,特斯拉已经具备了自动驾驶的硬件基础。不过这并不意味着特斯拉马上就能拥有完全自动驾驶能力。因为无论是对于每一个单独的传感器,还是对于不同传感器之间的融合,都还需要一定的时间来进行学习和改进。
,
Autopilot 是否安全?
目前的事故原因正处于调查中,如果这仅是一起普通的交通事故,可能根本无人关注,但因为是自动驾驶而引发的,将会被无限放大。安全是自动驾驶需要解决的首要问题,我们不得不去重视并谨慎对待。
特斯拉2020年第一季度安全报告中的数据显示:
在Autopilot自动辅助驾驶参与的驾驶活动中,平均每468万英里(约合753万公里)行驶里程报告一起交通事故。
在没有Autopilot自动辅助驾驶参与的驾驶活动中,平均每199 万英里(约合320万公里)行驶里程报告一起交通事故。
在没有Autopilot自动辅助驾驶和主动安全功能参与的驾驶活动中,平均每142万英里(约合228万公里)行驶里程报告一起交通事故。
而美国国家公路交通安全管理局(NHTSA)的最新数据显示,美国平均每47.9万英里(约合77万公里)行驶里程即发生一起碰撞事故。
数据显示,Autopilot参与的驾驶活动,能明显提升行驶安全。然而,在人们的印象中,人为的失误是可以理解的,机器却是不可原谅的。
人类的信任感是一个很微妙的东西,虽然它与生俱来,但需要随着时间逐渐积累,而信任感一旦丢失,则需要花很长的时间才能找回来。对于自动驾驶汽车安全等新技术而言,这种信任感也尤为重要。很多时候,一旦自动驾驶汽车发生了一次事故,便会人尽皆知,即使这些汽车已经经过了许多次安全测试。无论是这次的特斯拉撞车事故还是之前Uber的事故,都绝不仅仅是一个企业的问题,而是整个行业的信任危机。
在任何情况下,人们都更倾向于将责任归咎于技术而不是人类自己,这就导致了人们对技术的信任感缺失,从而影响了整个自动驾驶行业。
本文观点来源为微信讨论及部分媒体信息。
技术交流群:YasmineMiao(微信)
原创作者社区:18918250345(微信)