查看原文
其他

自动驾驶被曝严重缺陷!国家973首席科学家呼吁:不要尝试 L2以上功能

梁浩斌 电子发烧友网 2022-03-21
电子发烧友网报道(文/梁浩斌)去年8月,企业家林文钦驾驶开启“自动驾驶功能”的蔚来ES8发生事故导致身亡,引起了大众对于车企在“自动驾驶”宣传上造成误导的质疑。使得在早期大肆宣传“自动驾驶”的一些车企,都开始在宣传用词上有所收敛,比如小鹏已经将原本官网上描述的“自动辅助驾驶系统”改成“智能辅助驾驶系统”。

当然也有小部分头铁的企业依然将“自动驾驶”放在介绍页最显眼的地方,是谁在这里就不提了。目前大部分带有辅助驾驶功能的车型,都是L2级别的系统,但按照普遍认知中达到了“高度自动驾驶”程度的L4级系统,就真的安全吗?

近日理想汽车CEO李想在微博发表了关于公司智能驾驶研发的成绩单,复旦大学计算机科学技术学院副院长、国家 973 计划项目首席科学家杨珉教授在看到了李想的微博后,回复并质疑了当前智能驾驶系统的安全性。

图源:微博

“说实话,我们安全研究人员觉得自动驾驶安全性没有想象的那么香,我们最新研发的驾驶系统安全性测试平台针对某L4级别系统测试后,小伙伴们纷纷倒吸一口零度以下凉气,表示不要尝试L2以上功能。”

在杨珉教授给出的例子中,演示了某L4级别无人驾驶汽车必然会发生碰撞的其中一个特定场景。


当车辆在既定车道行驶,前方车辆突然有加塞动作时,车辆并未有减速动作,在此场景下必触发碰撞。而如果是人类驾驶员遇到这种场景,一般会先在后面减速跟随一段时间或闪烁大灯提醒前方车辆,确认安全后再通过。

虽然按照事故定责案例来看,责任主要在变道车辆上,但对于自动驾驶而言这样100%发生事故的场景显然是一个重大安全缺陷。而且这并不是孤例,杨珉教授还透露,测试系统仅在一周内就发现数百个碰撞的案例。难道自动驾驶真的是个伪命题?

智能驾驶系统盲区多


由于真实路况复杂,尽管目前的智能驾驶系统经过多年的发展,有足够的真实场景用于机器学习训练,但遇到个别特殊场景依然会出现无法识别的状况。

图源:亚利桑那州公共安全部

比如在2020年7月,一辆特斯拉Model S在美国公路上开启了Autopilot自动辅助驾驶系统时,无法识别前方白色的警车,在造成追尾的同时还波及到警车前方的一辆救护车。


白色似乎是特斯拉自动辅助驾驶系统的一个盲区。同样在2020年,中国台湾嘉义县的一辆特斯拉Model 3在高速公路上开启Autopilot自动辅助驾驶系统时,没有识别到前方因事故侧翻在路上的白色货车,毫无减速地撞上去。而调查结果显示,当时系统将白色货车错误识别成天空,因此并没作出减速动作。


另一方面,因施工或其他情况导致路面划线不清晰时,系统同样容易出现误判。(如上图)


而上文杨珉教授给出的例子,其实现实中早已经有类似事件发生。此前在深圳南坪,一辆Model 3在开启Autopilot自动辅助驾驶系统的情况下,由于最右车道被封,在右前方行驶的比亚迪渣土车提早打了转向灯,并向Model 3所在的车道变线。但Autopilot系统并没有停下,反而加速跟上前车,最终发生碰撞。


不单是特斯拉,其他品牌的车型都出现过系统识别错误的事故。比如去年9月,一辆开启了NGP(智能导航辅助驾驶)的小鹏P7,在高速公路上追尾了一辆空载的挂车。原因很可能是因为挂车底盘高度太低而出现误判。


去年1月,在沈海高速上一辆蔚来ES8在开启NIO Pilot自动辅助驾驶功能的时候,撞上了因轮胎问题在高速公路最内侧车道抛锚的五菱宏光。在车主提供的行车记录视频中可以看到,当时的天气状况不太理想,雨势较大。

当然,以上事故中,司机分神是其中一个重要原因之一,不过类似事件的频发,也反映出智能驾驶系统对于特定场景识别的盲区。

可能会有人认为,这些车企的智能驾驶系统级别不高,一些自动驾驶公司的L4级别系统会有更好效果。确实,大多自动驾驶公司从一开始就往着完全自动驾驶的方向去研发,目前一些Robotaxi项目也开始落地,但从实际体验上来看依然存在一些危险动作。


比如百度Apollo的L4自动驾驶,在某博主体验的过程中,车辆在通过人行横道时没有明显减速,从普通驾驶员的角度来看,有多次危险动作出现。

尽管现实中可能是小概率事件,但对于汽车而言,无论发生的概率有多少,只要有可能发生,都会直接关系到乘员的生命安全,这也是为何车规级产品要求的缺陷率要达到0PPM(百万分之0)。

自动驾驶还能不能成?


图源:工信部

去年8月,工信部发布了一份关于加强智能网联汽车生产企业及产品准入管理的意见文件,其中最关键的一句话是:明确未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能。

而在给汽车推送自动驾驶功能前,“应当确保汽车产品至少满足系统失效识别与安全响应、人机交互、数据记录、过程保障和模拟仿真等测试验证的要求。”这意味着在监管层面上,监管部门已经开始推进车企“自动驾驶”功能安全性方面的审核。

但真的要实现纯自动驾驶,可能不是某个车企依靠自己技术能够做到的。在真实的交通场景中,车辆与车辆之间是互为黑盒子的关系,对于人类驾驶员而言,与其他驾驶员其实一直处于不断互相判断、互相试探的过程,在这个过程中的变数,不只是驾驶员对实时路面情况基于经验的判断以及反应速度,还有不同驾驶员的心理状态。

这或许是目前业界对于完全自动驾驶诞生的时间节点并不乐观的原因之一。因此,V2X一类的技术如今还难以大规模普及的情况下,纯自动驾驶依然遥遥无期。

所以,未来要避免因智能驾驶功能而出现的事故,重点还是在于人类驾驶员,从技术的角度来看,DMS(驾驶员监控系统)在未来的智能驾驶功能上将会处于更加重要的地位,通过判定更加敏感的DMS来及时提醒驾驶员,确保驾驶员保持对路面的专注。只是,这跟自动驾驶的初衷似乎又有点相违背了...

而对于目前自动驾驶的小概率缺陷,杨珉教授的这句话也引人深思:“时代的每一片雪花,落在每一个人身上都是一座大山。”

声明:本文由电子发烧友原创,转载请注明以上来源。如需入群交流,请添加微信elecfans999,投稿爆料采访需求,请发邮箱huangjingjing@elecfans.com。


更多热点文章阅读

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存