查看原文
其他

海恩法则与自动驾驶

2017-08-22 张辉 辉哥奇谭

写在前面:10日23时许,陕西省境内京昆高速公路安康段秦岭1号隧道发生一起大客车碰撞隧道口事故,造成车内36人死亡,13人受伤。我从事故发生起就非常关心这起事故发生的原因,包括道路设计,汽车安全设计和交通管理等因素。思考如何在以后的系统设计中用技术手段来减少和避免此类的恶性事故。我们在内部讨论的细节不在此公开,下面的文章是我前段时间写的有关事故和事故隐患关系的一段思考。我认为为了解决事故问题,我们应该把着眼点前移,从只关心已经发生的事故到关心「事故隐患」上,放在「预防」措施上。只有这样,才能真正把握主动。

昨天听到了海恩法则(Heinrich's Law),遂想到它与自动驾驶之间的关系。

海恩法则(Heinrich's Law),是德国飞机涡轮机的发明者德国人帕布斯·海恩提出的一个在航空界关于安全飞行的法则,海恩法则指出: 每一起严重事故的背后,必然有29次轻微事故和300起未遂先兆以及1000起事故隐患。法则强调两点:一是事故的发生是量的积累的结果;二是再好的技术,再完美的规章,在实际操作层面,也无法取代人自身的素质和责任心。

迄今为止,真正的具备一定程度自动驾驶能力的量产汽车大家公认的是Telsa Model S和Model X。此外,奔驰、Volvo分别也有一部分车型具备类似的自动驾驶能力,但是在普及程度和影响力上距Telsa很远,所以我们以Tesla为例来说明问题。

Telsa目前已经售出的车辆有超过7万台,2017年Q1更是创下公司有史以来的销售记录。从2016年10月起,每一台销售的Tesla汽车,无论消费者是否选择激活,这台车都具备「全自动驾驶能力的硬件」。可以说,Telsa公司把「自动驾驶能力」视为该公司技术领先的标志和差异化的竞争因素。

自从2015年Tesla正式向市场推出自动驾驶能力的车辆以来,就有很多争论和新闻报道。最出名的是2016年5月7日,在佛罗里达州Williston,特斯拉MODEL S司机在使用Autopilot模式时发生事故死亡。初步报告显示,当时在一个十字路口,在这辆特斯拉汽车的前方,一辆重型卡车正在左转。

Tesla公司因为这起严重的事故和相应的公关危机,宣布改变自动驾驶的方案,从以依赖视觉为主,切换为以依赖雷达为主。当然,此后不久,在AutoPilot 2.0硬件方案上,又转换为依赖视觉为主。并且,Telsa公司在宣传用语上,悄悄的把「自动驾驶」改为「自动辅助驾驶」。

而其后美国国家公路交通安全管理局(NHTSA)公布了关于特斯拉Model S车祸致死事故的调查报告。报告称,没发现涉事车辆自动驾驶系统的设计和性能有安全隐患,但也同时指出,自动驾驶系统存在局限性,采用该模式时司机需全神贯注留意交通环境,随时准备采取行动避免撞车。

但是,如果把海恩法则用于汽车自动驾驶领域,我们可以推论,在这期世界瞩目的事故背后,应该有XX起轻微事故,XXX起未遂先兆和XXXX起事故隐患。

因为我一直关心Tesla,并且在今年春季买入Telsa Model X 90D,所以,我会非常关心有关Tesla的新闻,尤其和AutoPilot有关的新闻。我在新闻媒体上注意到的非常明确的指向可能是由于不当使用AutoPilot引发的事故就有两期,其中一起甚至是致死事故,发生在2016年1月20日。另外一起发生在北京五环,和第一起的现场很相似,都发生在封闭道路的最内侧(超车道),同样因为在路上最内侧缓行的清洁车而发生。

而在汽车论坛,和Tesla车友会的微信群,能看到更多类似事故的消息。包括在使用AutoPilot期间引发的被追尾的事故。

我的问题是:是否有系统能全面,有效的记录轻微事故、未遂先兆和事故隐患。虽然今天可能公众无法全面的知道每一期已经发生的事故,但是我还是期待有系统和机制,能全面的记录事故、轻微事故、未遂先兆和事故隐患。

我们做人工智能的人都期待有一天,自动驾驶可以完全替代人类司机,并且有更加安全的驾驶和更加舒适的体验。为了这一天的到来,无数人力物力财力会投入其中,并且会有一些的代价。但是,为了这一天早一点到来,我期待我们能建立好非常完善的记录机制,分析机制和共享机制。这一点,需要所有主机厂(OEM)、Tier1、政府部门思考。


没错,我在挑战自己能否做到连续100天,每天发一篇原创文章(有时会是一段话),这是7/100,一起加油吧!

也可以邀请更多的朋友一起围观。

参考文章:克服电动车「里程焦虑」的最佳方式车能否成为「第三空间」?

前一篇文章:为何你更应该在意「时薪」?


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存