查看原文
其他

深度解密:无人驾驶之“眼” 成长史

李熵 AI商业评论 2022-04-29

北京时间(5月5日)凌晨,美国亚利桑那州钱德勒发生了一起严重的交通事故,一辆本田小轿车和处于自动驾驶状态的Waymo测试车相撞,虽然车上人员只受了轻伤,但Waymo的Pacifica测试车左侧车门凹陷,左前轮已经歪了,周围车身甚至能看得出碎裂。警方说,这是Waymo今年在他们那里第一次发生车祸。钱德勒和今年3月Uber发生致死车祸的坦佩,同属于凤凰城地区。

在技术迭代的进程中,无人驾驶的车祸还会发生,因为新技术的落地固然要经历不断磨合才能愈加完善。而无人驾驶之“眼”的发展是决定其落地的关键,当技术、需求、盈利达到一种平衡,自动驾驶才能迎来真正爆发。


“把机器学习系统做到99%的准确率相对简单,但是在这个基础上再提升0.9999%的准确率却非常难,而这0.9999%才是根本性的需求。”特斯拉CEO埃隆•马斯克说。

去看看每年一度的机器视觉竞赛就能知道其中缘由,电脑在判断什么是狗的问题上准确率可以高达99%以上,但可能偶尔也会把盆栽植物错认为狗。如果在以每小时70英里的速度行驶时犯下这种错误,那么后果将十分严重。

要将视觉识别的准确率提升一个层次,数据流提供者——各类传感器尤为重要,本文带您解密无人驾驶之“眼”成长史。


无人驾驶第一只“眼”:数码相机

数码相机类似人眼,在实时数据流中捕捉车外环境。其原理是通过镜头以光子的形式采光,每个光子具有一定的能量,光子流通过相机镜头后,最终落在布满感光像素点的硅传感器上。光子击打在每个单元格的感光像素点上,随后被转化成计算机可读取的格式:一系列呈现每一个单独“图像元素”位置的数字集合。图像元素就是我们通常说的像素。

1991年柯达试制成功世界第一台数码相机--DCS 100,东芝公司发表40万像素的MC-200数码相机,售价170万日元,这是第一台市场出售的数码相机。


柯达DCS 200及其原理

一些适用于无人驾驶领域的专业数码相机功能,远远不止记录像素值。它并非从硅传感器的感光像素网格里直接输出光束的原始数字,先进的自动相机能自动分析图片数据,图片处理速度就能进一步加快。

然而,数码相机是没有立体视觉的,这是限制数码相机在无人驾驶领域应用的最大问题之一。数码相机根据像素网格里的光线强度来捕捉信息,把三维数据世界转化成简洁的二维格式。但在捕捉过程中,会遗漏一则深度感知的关键信息:物体与相机之间的距离。

科学家后来研究了多项不同技术来克服这固有的限制。解决方案之一是在同一辆车内放置多台数码相机。在一辆无人驾驶汽车里,精心布置多台摄像机来捕捉同一个镜头,每台机器的角度有细微的差别,这样能帮助计算机重建3D功能,对环境更清楚的认识。

另一个可能方案是结构光相机(Structured-Light Camera)。使用拥有投影功能的数码相机,使图片数据拥有其深度信息。为了达到深度感知的仿真效果,结构光相机将光线投射到场景上并测量其失真度。通过失真度的测量,结构光相机能从中计算出深度。


结构光相机及其成像原理

结构光相机最大的弱点之一是其投射的光线在日光充足的白天时段运行不畅,而且被投射出的光线会受到自然光的干扰。另外物体距离超过10米时,这种感知方案也不可行,这一点成为结构光相机应用在快速移动车辆上的致命缺陷。

此外,数码相机还有一个低技术含量的弱点:污垢。即便是最好的自动数码相机,只要沾上一抹污泥,就不能正常工作。路边的扬尘、沙土、鸟粪、虫子以及其他户外驾驶可能遇到的一些情况,都能妨碍最精密的数码相机和机器软件的正常工作。


无线电雷达抗干扰能力强,但分辨率低

无线电雷达传感器由发射和接收器组成,发射器负责向外发射电磁波,而接收器随时准备接收回波。

如果电磁波在传播路径中没有遇到障碍物,则会发生衍射,绕开障碍物,改变传播方向。由于电磁波的速度等同于光速,因此整个传播过程非常快。

对于自动驾驶来说,雷达传感器最大的好处是可以穿透浓雾、暴雨、尘土、扬沙,甚至是强烈的顶灯灯光,这一点不同于数码相机。


无线电雷达工作原理

雷达传感器的另一个优点是能轻易穿透非导电性物体和薄型材料,因此不容易受到高速公路上空飞舞的塑料袋或者风滚草的干扰。另外,雷达传感器不仅能检测到物体的位置,还能根据多普勒效应监测到物体的速度。

雷达传感器的最大缺点就是其分辨率相对较低。雷达可能把某些巨型、静止的物体,比如停在桥下的一辆熄火的汽车,误认为是桥墩的一部分。


激光雷达好用,就是有点贵

数码相机的工作原理是把三维视觉空间拆分为二维像素矩阵。激光雷达设备则不同,它向周围散射出强烈的脉冲激光,测算出光束反射回来所用的时间,然后根据激光测距原理计算出周围环境的三维数字模型。

一台无人驾驶汽车的数据由激光雷达产生,传输给软件,再由软件把信息整理到名叫“点云”的数字模型里。如果激光束直射入高空,所见的模型为一片空白,因为发射路径中没有能够反射激光的物体。与此相反,如果激光束射入车水马龙的街道,所形成的“点云”将获取各种有趣的详细信息。


激光雷达点云

激光雷达与数码相机其中一个重大区别是,激光雷达传感器无法捕捉色彩信息,呈现的是如幽灵般的同一颜色。

激光雷达点云与数码摄相的第二点不同是成像时间,激光雷达不停旋转,持续更新所产生的数字模型。激光雷达传感器速度慢,虽然能高校绘制出地形轮廓图或慢慢挪移的交通堵塞数据图,但是不能及时提供某些紧急交通状况下,计算机需要处理的瞬时影像数据。

另外,激光雷达的价格也较高。2016年,Velpdyne公司生产的重600克的16线激光雷达测距精确到厘米,售价高达8000美元。

在2015年10月的特斯拉公司的一场新闻发布会上,埃隆•马斯克对该公司的未来无人驾驶汽车的技术发展评价如下:

我们认为人们无须使用激光雷达,无光源外加前置雷达就能做到一切事实上,即使没有激光雷达也能彻底解决问题。我不看好激光雷达,它在这种情况下不起作用。


全球定位系统(GPS):信号容易遭遇屏蔽或延迟

GPS是一项已经面世长达数十年的技术,最初应用于军事领域。GPS接收器能接受太空卫星发回的信号,通过计算信号响应之间的时间间隔,GPS接收器应用“三角定位”的数学方法计算出准确的位置。如果两颗卫星的信号同时到达,GPS接收器把这种情况判断为位置恰好处于距离中点的平分面上。

GPS是美国从上世纪70年代开始研制,历时20年耗资200亿美元于1994年3月完成其整体部署。

在常见的驾驶环境中,GPS接收器能计算距离为4米。如果接收器提供的定位信息精确无误且持续更新,研发无人驾驶汽车的难度就可以大大降低。遗憾的是,由于大气环境中的云、雨等造成干扰,卫星信号可能遭遇屏蔽或延迟,导致计算结果产生偏差。

都市驾驶的另一个严重问题是超声波的反射脉冲。如果你曾经在纽约的曼哈顿使用GPS设备,你一定感受过卫星脉冲信号遇上高层建筑产生反弹的情况——GPS系统出现混乱失控,节奏凌乱,每隔几分钟就产生新的定位。

事实上是,从卫星发出的部分脉冲信号,遇上摩天大楼产生反弹,给接收器造成假象,误认为它们的抵达时间略有不同,就连最好的GPS系统也能被城市峡谷效应误导。


高清地图难在“更新”

相比服务于GPS导航系统的传统地图而言,高精地图最显著的特点是其表征路面特征的精准性。传统地图只需要做到米级精度即可实现GPS导航,但高精地图需要达到厘米级精度才能保证无人车行驶安全。

此外,高清地图既能反映大型地理特征,像是高山湖泊,也能反映诸如树木和人行道的分布等微观地形细部。应用在无人驾驶汽车的高清地图,重点呈现的是道路或十字路口的表层静态数据,比如车道线、路口交叉点、施工地段以及道路标志。


高清数字地图

为人类肉眼设计的传统地图是二维图形成像,用静态标记表示某个地方的注明地标。而高清地图有着强大的封闭式后端,高清地图所呈现的某个区域的图像,其背后是存储着数百万个地形的细部的庞大数据库,每个数据还包含着地理位置、大小、方位等其他相关信息。

人类的大脑都储存着一幅高清的本地地图。事实上,我们的大脑拥有惊人的“自动更新”“自动修正”的能力,让任何软件工程师和制图员都嫉妒不已。更新一幅高清地图是一个艰苦的过程,需要载着摄像机和激光雷达走遍区域中的每个地方。


外置耳朵——超声波传感器(声呐)

如果把激光雷达和数码相机比作一个人的眼睛,超声波传感器就是人的耳朵。超声波可谓雷达的近亲——像雷达一样,发射波形信号,检测回放——不过超声波传感器发射的是超声波,不同于雷达的电磁波。

超声波传感器根据物体反射回来的时间、频率、声波形状来监测位置和速度。超声波传感器一般分为两个部分:发送器和接受感应器。发送器产生振动频率高于20KHz的机械波,高于人耳能听到的频率范围;接受感应器感应到声波的回声并对其进行处理。

超声波传感器有着许多与激光雷达、普通雷达相似的优缺点。就优点而言,它与雷达传感器一样能穿透浓雾、尘土,能在刺眼的阳光下看清物体。声波的传输速度比电磁波慢上许多,这决定了它能以高分辨率来看清细小物体。

同时由于声波的能量随着风和距离快速衰减,它只能近距离监测物体。因此,超声波常作为雷达实际应用中的补充,比如停车等近距离的精确检测。


内置耳朵——IMU惯性测量单元

惯性测量单元是一种多用途功能的设备,它配有加速感应和定位感应,能记录汽车行驶的轨迹,从而也能看出诸如左右轮胎高度是否一致等问题。现代的惯性测量单元是一系列复杂设备的集合,包括里程计、加速计、陀螺仪和指南针。所产生的结果是各个设备数据经由复杂的预估算法解析后综合得出的。


IMU惯性测量单元

惯性测量单元需要获取三种信息才能测量和记录汽车的物理空间方位:车辆前进的方向、车前端的俯仰角和倾斜侧角度。

惯性测量单元造价很高,最初只能被应用与商业船和潜水艇,其造价高达100万美元。除了高价以外,惯性测量技术最大的弱点就是不能脱离GPS长时间工作,否则会产生偏移。各个微传感器所产生的微小偏差积累起来就成了大问题。


无人驾驶的未来一定是多传感器融合

在无人驾驶汽车中,雷达监测与视觉传感器在周边环境监测方面的作用相辅相成。通过感应周围物体的大小、疏密、速度和方向,雷达传感器传输的许多信息能与数码相机、三维“点云”生成的图片相互参照。

据法国权威市场分析机构 Yole Développement 的统计,当前最先进的智能汽车采用了 17 个传感器(仅指应用于自动驾驶功能),预计 2030年将达到 29 个传感器。

地平线机器人创始人兼CEO余凯曾在“网易未来论坛2017“上说,“无人驾驶未来方向一定是多传感器融合,因为每种传感器有适用的情况跟不适用的情况,比如说有的传感器,像摄像头在白天可以,在晚上肯定是有问题的,激光雷达传感器其实在雾天是有问题的,一定要把各个传感器互相弥补,综合使用。”

无人驾驶之“眼”成长至今已初见成效,但仍有很长的路要走。就在笔者撰写此文时,刚得到一则关于无人驾驶发生车祸的消息。

北京时间(5月5日)凌晨,美国亚利桑那州钱德勒发生了一起严重的交通事故,一辆本田小轿车和处于自动驾驶状态的Waymo测试车相撞,虽然车上人员只受了轻伤,但Waymo的Pacifica测试车左侧车门凹陷,左前轮已经歪了,周围车身甚至能看得出碎裂。警方说,这是Waymo今年在他们那里第一次发生车祸。钱德勒和今年3月Uber发生致死车祸的坦佩,同属于凤凰城地区。

笔者预言,无人驾驶的车祸还会发生,因为新技术的落地固然要经历不断磨合才能愈加完善。而无人驾驶之“眼”的发展是决定其落地的关键,当技术、需求、盈利达到一种平衡,自动驾驶才能迎来真正爆发。

精彩文章推荐 

《哥伦比亚大学AI实验室主任Hod Lipson:
阻碍无人驾驶技术发展的7个误区


《美国工程院Daniela Rus:
MIT已实现99%的乳腺癌AI检测准确率》


公众号后台回复“进群”
加入人工智能读者俱乐部

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存