查看原文
其他

4D成像雷达“门槛升级”,点云处理+前融合感知大战打响

汽车毫米波雷达市场的变革,超出很多人的预期。如今,几乎大部分的毫米波雷达公司都在推动4D成像雷达的技术落地。从自动驾驶公司Waymo,到大陆集团、采埃孚、博世等传统雷达厂商以及傲酷(被安霸收购)、为升科等后来者。


过去,分辨率差、行人低反射率、噪声和多径效应,同时成本高于摄像头,对于不同静止物体的识别差,这些都是毫米波雷达的缺点。


大幅提高分辨率是出路之一,这就是目前4D以及成像雷达的优点之一。传统雷达可能得到5度的低角度分辨率(但垂直方向更差),但4D成像雷达可以提升至1度,有的可以达到0.5度甚至更高。



结果是,4D成像雷达产生类似激光雷达的“点云”。同时,优点在于对于每个点,不仅知道X和Y,还可以直接得到距离和速度值。同时,还可以跟踪这些数据随着时间的变化(也可以定义为5D)。


而在过去几十年时间里,毫米波雷达经历过辉煌,也有一些挫折。从最早单雷达的ACC,到后来Mobileye视觉方案的大翻盘,再到如今的多传感器融合,4D雷达成为新的焦点。


同时,AI技术的加持,也在从视觉延伸至4D雷达。通过点云的优化处理,消除返回噪声,也包括从物体轮廓中识别目标和分类。更关键的是,雷达的价格还在持续下滑。


一、门槛升级


近日,4D成像雷达方案商Zadar Labs, Inc.宣布正在为基于雷达点云的感知构建首个深度学习训练数据集。通过与Xilinx公司合作开发4D雷达深度学习处理器单元(DPU),加速实现基于4D雷达点云的目标分类。


在高工智能汽车研究院看来,随着类似NXP、TI这样的雷达芯片方案供应商陆续推出4D雷达芯片方案,输出点云数据只是入门级别。数据处理才是真正提高雷达性能所必需的。


在这一点上,无论是摄像头还是激光雷达,都已经走在前面。不过,目前这两种传感器的AI及深度学习处理技术模型,并不适合4D成像雷达。


在Zadar Labs看来,成像点云的深度信息和质量不仅提供了位置信息,而且还提供了速度、信噪比和反射率等指标的优化。Zadar的SDIR解决方案通过额外的检测特征,寻求从根本上发挥4D成像雷达未被开发的潜力。


目前,Zadar的团队正专注于目标分类的训练数据集。然而,这仅仅是个开始。随着数据集的细化和扩展,感知工程师开发基于4D雷达的新算法将成为新的竞争门槛,同时,这意味着后续与摄像头、激光雷达的“像素级”前融合成为可能。


比如,这套解决方案可以识别人的手臂相对于身体的运动,或者识别车辆的车轮。要实现基于4D雷达点云的目标分类,就需要一个强大的DPU。而在此前之前,大陆集团的ARS540正是采用了赛灵思的FPGA作为主处理芯片。


在赛灵思公司看来,4D成像雷达在点云密度增加的情况下,如何增加检测的成功概率,减少回声的噪音,并实现远处信号反射较弱物体的检测,还需要解决多信号的干扰问题。



看到这个机会的,还有传统视觉芯片方案提供商安霸半导体。今年,该公司收购了4D成像雷达初创公司傲酷(Oculii),后者的自适应软件算法可以在传统雷达芯片基础上实现高分辨率、更长距离和更高的探测精度。


接下来,傲酷的4D雷达软件可以直接部署在安霸的CVflow®SoC上,甚至可以提升传统雷达的分辨率和探测精度,从而提供全天候、低成本和可扩展的融合感知解决方案。


“我们希望傲酷独特的自适应雷达感知算法,结合安霸的视觉和人工智能处理能力,解锁更高水平的感知精度,而不是传统的视觉和雷达的后融合解决方案。”到目前为止,傲酷已经与超过10家客户签订了软件授权协议,并拿到了前装量产的商业开发合同。


而在Zadar Labs看来,视觉成像雷达是可扩展、强大和低成本自动驾驶感知的最佳组合。“这样的产品正是市场所需要的。”


比如,在全新一代奔驰S级的DRIVE PILOT系统中,就搭载了Veoneer的双目立体视觉和大陆集团的ARS540成像雷达,这些方案中都采用了赛灵思的计算解决方案。今年7月,赛灵思最新发布的Vitis AI 1.4版本,在原有的AI加速解决方案基础上,也增加了4D雷达检测算法模型。


二、


任何一套具备可行性以及规模化落地能力的感知方案,取决于两个主要要素:传感器提供的信息质量,以及处理数据的能力和算力。


在安波福公司看来,在传感器方面,以毫米波雷达为中心的解决方案提供了一种可选的路径,尤其是4D成像雷达的加入,意味着,接下来机器学习技术也可以使用来自雷达的数据,并与其他数据进行融合。


对于L2+/L3功能,如高速公路自动驾驶和车道改变辅助,用于前向的4D成像雷达可以提供更高的角分辨率数据以及高程感知能力,同时提升角雷达的近距离精准探测能力,提升高阶自动泊车的感知识别。


比如,安波福推出的FLR4+,也是该公司的首款4D成像雷达,探测距离同样超过300米,并且通过机器学习支持真正的高程目标识别,并且还着重强调了具有吸引力的价格/性能比。


在角雷达应用上,安波福也推出了SRR6+和SRR6 HD两个型号,前者的探测距离比前一代角雷达增加了一倍,并增加了更高分辨率的角度识别。后者则为代客泊车和低速自动驾驶提供最大的分辨率输出。



“雷达提供的数据,比视觉系统提供的要复杂得多;不过,前者除了提供目标的位置之外,还提供距离和速度等信息,这是相当有价值的。”安波福相关负责人表示,同时,由于域控制器架构带来的高算力,意味着机器学习边缘加速成为可能。


比如,高通公司本身不生产毫米波雷达,但通过在雷达上进行深度学习,来扩大雷达的性能。例如,通过使用高通内部开发的“雷达深度神经网络”,通过使用增强的雷达获得更高的分辨率和3D扫描。


更关键的是,相比于视觉处理,雷达数据处理的能耗更低。一组数据显示,一个处理6个近距离雷达数据的系统功耗约1W,而一个处理6个摄像头数据的系统则需要10W到15W。


在实际的道路场景应用上,此前安波福公司也给出了结合机器学习能力的一系列数据。比如,针对道路上的小物体或碎片,机器学习可以将探测距离再提高50%以上,并能跟踪200米范围内的小物体。


同时,对于前方小物体是否可以安全行驶通过,机器学习系统也可以用安全的和不安全的物体进行训练。此外,与经典的雷达信号处理相比,机器学习减少了70%的漏检,通过与其他传感的融合可以进一步改善检测。


机器学习还可以帮助提供准确的目标检测和跟踪,包括目标边界和鲁棒分离,可以将位置误差和目标航向误差降低50%以上,这意味着该车辆能够更好地识别停在其他车道上的车辆,以及静止或缓慢移动的物体。


此外,随着点云数据的增加,噪音也会增加。比如,隧道对于传统雷达是另一个具有挑战性的环境。隧道墙壁是一个巨大的反射面,可能导致非常多的返回点,甚至可以超过雷达处理目标的能力。


在安波福公司看来,机器学习可以帮助车辆了解何时进入隧道,能够以比经典方法更高的精度过滤掉检测中的噪声。同时,还可以更好地解释隧道和其他封闭环境中的雷达回波,对扇形等目标进行分类。


同时,高密度数据点,提供了更多关于物体形状的详细信息。以采埃孚为例,4D成像雷达可以从行人身上接收大约10个数据点,而不是以前只有1或2个点,使系统能够更准确地区分人和静态物体。


随着数据点数量的增加和更好的分布,该系统甚至能够通过测量点的移动速度来定义单个肢体的运动,这意味着传感器可以看到行人的移动方向。


按照一些公司的测算,4D成像雷达可以很快1-2年内达到目前传统雷达的成本,此外,考虑到软硬件解耦趋势,4D成像雷达在提供丰富点云数据的基础上,还可以实现OTA更新,来增加更多的功能应用。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存