查看原文
其他

4D成像还不够!毫米波雷达还需要一项新能力加持才能“出道”

特别报道 高工智能汽车 2023-02-03

作为高阶自动驾驶的三大核心传感器,摄像头正在经历高像素、3D深度信息以及环绕感知能力的提升阶段。与此同时,在激光雷达和毫米波雷达之间正在进行一场角力战。


激光雷达厂商正在加快推动车规级量产进程,同时挑战更低成本和更高的可靠性,充分发挥激光雷达可以提供精准度更高的数据能力。另一方面,毫米波雷达厂商也在开足马力,改进低分辨率、俯仰角探测等问题,以匹配多传感“前融合”刚需。


在这一点上,“抛弃”传统毫米波雷达的特斯拉,正是因为现阶段视觉能力与雷达性能的不匹配从而造成融合感知的置信度瓶颈。



在安波福公司看来,自动驾驶汽车面临的最大挑战不是算法、规划和决策,最大的挑战仍是感知,能够可靠地创建最精确和最稳健的环境模型。


而毫米波雷达天然的优势,就在于低系统成本和在各种天气、照明条件下的可靠性。一直以来,纯视觉、单雷达或者雷达+视觉融合技术已经在ADAS量产车上规模化搭载,并且经过长时间的功能验证。


在业内人士看来,未来几年,不管是汽车制造商还是自动驾驶公司,推动不同等级辅助驾驶及自动驾驶规模化落地的前提,都是需要一种具有成本效益的方式。


“汽车行业,不管是什么背景的造车,没有谁会和成本过不去。即便是豪华品牌,也要追求利润的最大化。”行业人士坦言。


一、毫米波雷达新赛道已经开启


任何一套具备可行性以及规模化落地能力的感知方案,取决于两个主要要素:传感器提供的信息质量,以及处理数据的能力和算力。


在安波福公司看来,在传感器方面,以毫米波雷达为中心的解决方案提供了一种可选的路径,尤其是4D成像雷达的加入,意味着,接下来机器学习技术也可以使用来自雷达的数据,并与其他数据进行融合。



事实上,在过去的一段时间,传统毫米波雷达供应商包括大陆集团、采埃孚以及初创公司傲酷等数家公司已经先后亮相自家的4D成像雷达,并且陆续公布了量产搭载车型,这意味着,新的赛道已经打开。


众所周知,传统毫米波雷达的使用周期很长。基本上,每一代雷达的生命周期都在5年以上,到目前为止,新一代的77GHz雷达只是在测距范围、线性调频信号、信号处理算法、MIMO、电子波束导向等技术上有所突破。


毫米波雷达擅长测量距离和速度,有很好的距离和速度分辨率。同时,在夜间以及恶劣天气条件下与其他传感器相比,性能衰减程度最小。但与摄像头和激光雷达相比,角度分辨率仍然相对较低。


天线设计,收发器件和软件算法,是目前突破这些瓶颈的关键三大路径,过去几年,也有不少初创公司在上述领域进行技术突破,比如超材料的天线阵列,重新设计研发的高集成度雷达芯片,还有处理算法上的创新。


同时,传统雷达芯片龙头企业NXP也在此前推出了一套全新的雷达传感器芯片组解决方案,基于全新的S32R45/S32R294两款雷达处理器和TEF82xx收发器,实现成像雷达的识别和分类能力。


这意味着,对于L2+/L3功能,如高速公路自动驾驶和车道改变辅助,用于前向的4D成像雷达可以提供更高的角分辨率数据以及高程感知能力,同时提升角雷达的近距离精准探测能力,提升高阶自动泊车的感知识别。


目前,毫米波雷达行业的主流趋势是,一方面进一步提升现有技术架构的性能;另一方面,则是布局成像雷达市场。


比如,采埃孚此前推出的最新一代Gen21中程雷达,探测距离达到220米,通过与摄像头融合满足欧洲NCAP五星安全评级和L2/L2+自动辅助驾驶性能要求。同时,雷达的模式(包括波型带宽),根据自车速度进行切换。


安波福则是推出了FLR4系列前向雷达,其中,FLR4比现有型号增加了两倍的距离分辨率和三倍的垂直视场。角雷达方面,SRR6则是与前一代相比,探测距离提高了40%,距离分辨率提高了两倍,垂直视场提高了三倍。


而对于解决接近L3以及L3级以上的功能需要,这些企业也都推出了4D成像雷达,除了进一步提升探测距离,还有角分辨率以及对常见物体的识别能力。


比如,大陆集团推出的ARS540,最大探测距离为300米,水平视场角为±60度,能准确分类交通工具/行人以及基础设施。同时,实现实际高度测量,比如桥梁。


傲酷新推出的EAGLE是目前全球最高角分辨率的商用4D成像雷达,可在120°水平 / 30°纵向的宽视场中提供0.5°水平 x 1°纵向的角分辨率。此外,在实现技术升级与性能突破的同时,BOM成本保持了与传统毫米波雷达基本一致。


而安波福推出的FLR4+,也是该公司的首款4D成像雷达,探测距离同样超过300米,并且通过机器学习支持真正的高程目标识别,并且还着重强调了具有吸引力的价格/性能比。


在角雷达应用上,安波福也推出了SRR6+和SRR6 HD两个型号,前者的探测距离比前一代角雷达增加了一倍,并增加了更高分辨率的角度识别。后者则为代客泊车和低速自动驾驶提供最大的分辨率输出。


二、4D成像+AI处理,是核心门槛


解决密集点云输出,是第一步。


由于4D成像雷达可以产生类似激光雷达点云数据,意味着接下来,机器学习可以被用来训练雷达感知系统识别物体,尤其是帮助解决传统雷达无法克服的边缘检测难题。


由于毫米波雷达的波长较长,产生的分辨率较低,可能导致目标分辨率不高,从而很难判断目标的边缘在哪里。有了点云原始数据,机器学习系统就可以对有较多反射点的物体进行边缘检测,甚至是分类。


“雷达提供的数据,比视觉系统提供的要复杂得多;不过,前者除了提供目标的位置之外,还提供距离和速度等信息,这是相当有价值的。”安波福相关负责人表示,同时,由于域控制器架构带来的高算力,意味着机器学习边缘加速成为可能。


比如,高通公司本身不生产毫米波雷达,但通过在雷达上进行深度学习,来扩大雷达的性能。例如,通过使用高通内部开发的“雷达深度神经网络”,通过使用增强的雷达获得更高的分辨率和3D扫描。


更关键的是,相比于视觉处理,雷达数据处理的能耗更低。一组数据显示,一个处理6个近距离雷达数据的系统功耗约1W,而一个处理6个摄像头数据的系统则需要10W到15W。


在实际的道路场景应用上,此前安波福公司也给出了结合机器学习能力的一系列数据。比如,针对道路上的小物体或碎片,机器学习可以将探测距离再提高50%以上,并能跟踪200米范围内的小物体。


同时,对于前方小物体是否可以安全行驶通过,机器学习系统也可以用安全的和不安全的物体进行训练。此外,与经典的雷达信号处理相比,机器学习减少了70%的漏检,通过与其他传感的融合可以进一步改善检测。


机器学习还可以帮助提供准确的目标检测和跟踪,包括目标边界和鲁棒分离,可以将位置误差和目标航向误差降低50%以上,这意味着该车辆能够更好地识别停在其他车道上的车辆,以及静止或缓慢移动的物体。


此外,随着点云数据的增加,噪音也会增加。比如,隧道对于雷达是另一个具有挑战性的环境。隧道墙壁是一个巨大的反射面,可能导致非常多的返回点,甚至可以超过雷达处理目标的能力。


在安波福公司看来,机器学习可以帮助车辆了解何时进入隧道,能够以比经典方法更高的精度过滤掉检测中的噪声。同时,还可以更好地解释隧道和其他封闭环境中的雷达回波,对扇形等目标进行分类。


同时,高密度数据点,提供了更多关于物体形状的详细信息。以采埃孚为例,4D成像雷达可以从行人身上接收大约10个数据点,而不是以前只有1或2个点,使系统能够更准确地区分人和静态物体。


随着数据点数量的增加和更好的分布,该系统甚至能够通过测量点的移动速度来定义单个肢体的运动,这意味着传感器可以看到行人的移动方向。


这个趋势,也已经被越来越多的企业所验证。比如,NXP已经推出一款车规级的AI工具包,除了应用于传统的视觉领域,4D成像雷达也将使用神经网络根据其点云图像对道路使用者及障碍物进行分类。


按照一些公司的测算,4D成像雷达可以很快1-2年内达到目前传统雷达的成本,此外,考虑到软硬件解耦趋势,4D成像雷达在提供丰富点云数据的基础上,还可以实现OTA更新,来增加更多的功能应用。


根据高工智能汽车研究院数据显示,2020年1-12月中国市场(自主及合资品牌)前向毫米波雷达上险量535.72万颗,同比增长38.43%;接下来,L2+及以上搭载率有望在2025年突破50%。


国内市场,4D成像雷达将从明年初开始小规模前装导入,预计到2023年,搭载量有机会突破百万颗,到2025年占全部前向毫米波雷达的比重有望超过40%。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存