查看原文
其他

SpaceX载人火箭上天了,但Tesla又双叒撞车了!幸好这次没死人。

Dina 一亩三分地Warald 2020-09-28



据路透社6月1日报道,在台湾嘉义县的高速公路上,一辆特斯拉在行驶中撞上了侧翻倒地的一辆厢式货车。所幸这次司机并未受伤。奇怪的是在撞击过程中,特斯拉也没有任何减速迹象。

图中可以看到,特斯拉不仅丝毫不减速的撞了进去,还把卡车又怼了一段。


路过行人的时候虽然没撞人,但是因为速度过快,把人家吓得后退了几步。


此次撞击事故“肇事者”依旧是特斯拉的Autopilot自动驾驶辅助系统。事故发生时虽然交通道路状况良好,能见度也很好,且车辆在自动驾驶模式中。那我们不禁要问,为什么在可以使用摄像头和雷达的情况下,特斯拉还是忽略了这么大的障碍物?

图片源自网络

1. 雷达问题 Radar:

因为雷达经常把其他固定物体认做是障碍物,比如天桥什么的,如果太重视雷达结果,车子就会疑神疑鬼的经常瞎踩刹车。所以只能选择忽略雷达判断的结果。


2. 视频头 Camera 和激光雷达 Lidar(也翻译为光学雷达)问题:
其实结合上一次车祸的情况(白卡车没被识别出来),这次被撞击卡车车顶也为白色,其实特斯拉的视频头问题一直存在难以突破的局限。


视频头对于景深的感知,一般来说比 Lidar(激光雷达)效果要差,哪怕有所谓立体视频(stereo camera,两个或者以上镜头并列,用彼此稍微不同的视角来实现对景深的判断,类似人眼成像,咱们现在新版的手机的相机也有)。但是即便如此,算法也容易被愚弄。


简单的比喻:如果你穿的T-shirt上有一辆车的图片,特斯拉上的视频头会认为你的T-shirt是辆真车而不能正确识别这个人。而跟行进方向垂直的卡车,也经常被误判为可以开车的区域 (driveable surface) ,也直接会开上去。当然这些技术也在不断发展,不过视频上的有些短板至今尚未突破。

激光雷达 Lidar 长什么样?


图解激光雷达


最顶端的下方稍微收拢的圆柱体是 Lidar,其他那一圈是 Camera。

为啥一般是个圆筒筒?因为里面激光是一圈圈高速转动来扫周围 360 度的情况。

激光雷达Lidar就是在Waymo头顶的独角,和 Cruise 的一对犄角。


而特斯拉没有这种犄角


无人车上不同的sensor 传感器

但是假如这个无人驾驶技术中有激光雷达,就能正确检测到深度,比如我们衣服有个车辆小图(不是真车),特斯拉会因为激光雷达检测到近距离内有人,而做出正确的的判断。因为激光雷达可以利用激光反弹回来的时间差来很好的检测到景深,比如现在高级手机也有安装便宜的激光雷达,可以拍景深很深的人像照片,达到背景虚化的效果。

图片源自网络

但是Elon Musk(特斯拉创始人)坚持相机足够了,不需要激光雷达,diss激光雷达是拐杖,阻碍无人驾驶技术发展。但是其他做无人车的厂子基本都持反对意见。目前高级一点的手机镜头都有基于激光雷达的景深感知,所以他这个执念不知道是为什么。




“Tesla CEO Elon Musk has offered a different criticism of lidar, describing it as a crutch that will actually hamper companies' progress toward full self-driving.” 




当别人提出质疑时,Elon也坚持不使用激光雷达

特斯拉创始人Elon Musk


实际上,基于视频算法缺陷,类似撞了卡车的事故,这已经是第三起。


早在2016年5月,就发生里全球首例Autopilot致死事故。在美国佛罗里达州发生死亡事故。事发时,车主Joshua Brown驾驶特斯拉Model S并打开Autopilot功能并疏忽了对车辆的人为控制,最终算法因为没有检测到前方出现与前进方向垂直的卡车,而冲到卡车下面,销掉了车子的上半部分,车祸身亡。当时的算法缺陷,就是无法把白色卡车跟背景中灰白色天空区分开来。

事故处理现场

事故后,特斯拉将原本夸大形容的Autopilot,由“自动驾驶”改为“自动辅助驾驶”。马斯克也曾在发布会上说过:It’s autopilot not autonomous.(Autopilot并不是自动驾驶,而是自动辅助驾驶)。同时升级了Autopilot程序,当驾驶员双手离开方向盘一定时间后,系统通过仪表盘闪烁提醒和警示音等措施提醒司机人为操作与驾驶车辆。


特斯拉的自动驾驶仪只是一个驾驶员辅助系统,它要求驾驶员们还是得时不时地晃动一下方向盘并且时刻注意道路。而且特斯拉自动驾驶仪不会完全捕捉到路上的一切,就目前以无人驾驶技术的成熟度来说,将生命完全依赖于一个冰冷的机器是不可取的。


此后还是发生了几起事故。2018年,苹果公司工程师黄伟(音译Walter Huang)驾驶着Model X在加州山景城发生交通事故遇难。

Model X在碰撞后燃起大火,驾驶者因此遇难

而非常类似的是,2019年3月,50岁的Jeremy Banner驾驶Model 3,因未能及时刹车或转向避开前方挂着停车标志的半挂车,发生事故身亡。在相撞前10秒,Banner其实启动了Autopilot系统。这次仍然是跟车辆前进方向垂直的卡车,也是Tesla 冲到卡车下面。

Autopilot系统

无人驾驶仍然存在很多长尾现象(The Long Tail),即使是有激光雷达的那些无人车们,也一样会面对各种长尾情况,让算法难以处理。无人驾驶仍然任重道远。

长尾现象


两端的情况很少发生,我们的测试也要涵盖进去所有的人类行为情况。

人类行为正态分布图

human behavior distribution



去年就有人用自家的特斯拉复现了这个 bug 

算法认为绿色部分都是可以开上去的,中间黄色的线路就是path planner计划开的路线,建议人钻车底。

估计是把卡车当做天桥了。千万别盲信它啊!





我们读者人群,家有特斯拉的人挺多的,千万不要盲信autopilot,目前人类的无人驾驶技术离科幻片里面的“自动”都还远着呢,大家请珍惜生命,开车的时候要集中注意力啊





回顾三年前Tesla自嘲的贴出来的各种翻车视频:


Youtube:https://www.youtube.com/watch?v=bvim4rsNHkQ

国内看这里: https://www.bilibili.com/video/av29923253/


其实特斯拉也是经历千辛万苦才有今天的成功,如果没有这么多事故,也是非常感人的,看的热泪盈眶。





更多讨论和吐槽去地里分享哦!


疫情通报

数据来源

截选自一亩三分地疫情网站


 1point3acres | 一亩三分地



往期精选 

👉

👉

👉

👉3000OPTH1B

👉Lyft150

后台回复:APP

下载一亩三分地看帖回帖更方便!

海量内容等你来发现!

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存