详解百度ANP 3.0:如何实现“安全、熟路、体验好”的智能驾驶
12月16日,在全球智能汽车产业峰会(GIV2022)上,百度Apollo展示了一段三域融通高阶智驾产品ANP3.0的多城市泛化路测视频。
这是百度Apollo即将在明年量产的ANP 3.0高阶辅助驾驶系统。官方对它的总结主要是“安全、熟路、体验好”。
所谓“三域融通”,指的是高速,城市、泊车全场景贯通。随着城市领航辅助功能在今年落地,“三域融通”也成了考验车企综合水平的重要一环。
ANP 3.0:低成本方案实现“三域融合”
ANP 3.0全称“ANP Apollo Navigation Pilot 3.0”,是百度Apollo推出的L2+级智能驾驶软硬一体产品方案。
ANP3.0包括自主研发的智驾域控制器ACU和含城市的全域智能驾驶软件系统。
硬件层面:ACU(Apollo Computing Unit)搭载2颗英伟达OrinX芯片,算力可达508Tops,功能安全等级达ASIL-D,机身采用水冷散热,工作温度可支持-40℃~85℃。
传感器方面,ANP3.0采用11V5R12S2L方案。包括:2颗前向高线固态激光雷达,覆盖180度视场角,最远可检测180米;7颗800万像素高清摄像头、4颗300万像素高感光环视专用摄像头;5颗毫米波雷达和12颗超声波雷达。
软件层面:ANP3.0 拥有支持城市、高速、泊车、全域场景的智驾功能模块;自研的完整数据闭环体系。
相关场景及可实现功能如下:
城市和高速高级领航辅助驾驶:通过自车环境感知和高精地图辅助信息,支持自动巡航、拥堵跟车、变道超车、过红绿灯路口、上下匝道、穿行隧道等常见场景。
此外,它也能礼让行人、避让大车、识别前车车灯信号、推理遮挡红绿灯信号、结合交通流速度自动调节限速、甚至自动通过ETC等;
AVP自主泊车:除了具备像APA、RPA、AVM等辅助泊车功能外,新一代记忆泊车HAVP已同多家车企量产落地,具备人在车外的自动召唤和泊车入位功能;
ANP3.0通过2颗180度视场角激光雷达“扩宽视野拉长视距”,还将AVP的停车场巡航速度预计提升25%~50%,还可以实现跨层巡航泊车以及机械车位等复杂场景。
AP辅助驾驶:在没有高精地图覆盖区域,通过识别地面车道线结构,支持沿车道线自动进行一路向前、跟车和人工拨杆变道,能跟车直行过路口,甚至不依赖高精地图也能识别红绿灯信号,当失去车道线时可自动降级ACC继续提供辅助驾驶。
“三域融通”目前已经已经是业内大趋势,小鹏、华为、毫末等企业都已经进入量产。百度在功能上和他们基本无异,基本处于业内第一梯队。那百度的优势又在哪里?
按照百度的说法,其ANP 3.0主要有3个优势:安全,熟路,体验好。下面,我们就来逐个拆解:
安全:Lite++ BEV感知时空融合新技术
百度介绍,其ANP3.0采取视觉、激光雷达两套系统独立运作,视觉为主,激光雷达为辅。百度也是业内为数不多在软件层面采取冗余方案的厂商,这一策略在百度旗下的集度汽车上亦有体现。
其中,视觉感知技术始于2019年启动的Apollo Lite项目,核心是“单目感知”加“环视后融合”的技术框架。
初期,Lite感知系统基于深度学习的2D目标检测与3D位姿估计;模型输出的观测经过单相机跟踪、多相机融合等步骤,输出最终的感知结果。
该模型是基于规则的跟踪、融合方案,更适合小规模测试。随着数据量增加,在需要多相机协同解决的Corner case中逐渐疲软。
今年百度对视觉感知框架进行了升级,推出了第二代纯视觉感知系统Lite++。它通过Transformer把前视特征转到BEV,在特征层面对相机观测进行前融合后,直接输出三维感知结果,并融合时序特征实现运动估计自动学习;
在模型设计层面,它基于transformer结构,实现时空特征融合。由于相机分布于车辆不同位置,每个相机收集到的数据都在单一区域,需要对其进行空间融合。在这个阶段,百度的做法是将位置编码变换从全局BEV空间转换到局部相机坐标系,消除相机内外参差异带来的差异。时序上尽可能多的融合主车运动与多帧信息,提升障碍物检测稳定性。同时基于时序特征,可直接输出障碍物的速度、意图、未来轨迹预测等关键信息。
此外,BEV的环视时序感知更强调训练数据的标注品质与数量。它需要海量数据来“喂养”,而这恰好是百度强项。
官方数据显示,百度L4 Robotaxi已经累积了4000万公里测试里程,覆盖了不同城市、不同季节和时间段,保证了数据的多样性。测试运营过程中实时传感器数据全量落盘上云。这些都可以直接为百度的Lite++所用。
针对原始传感器记录的4D数据,即space-time的时序数据。百度还专门搭建了离线pipeline,进行感知计算。全计算流程在云上完成,自动化率达到90%以上,数据生产速度可达到每周数百万帧,以支撑BEV模型研发。
熟路:给高精地图降本 实时在线建图
由于高精地图的一些固有问题,更新慢,成本高等问题,不少企业都希望智能驾驶甩开高精地图,甚至不少企业已经研发了轻地图方案。
百度认为,高精地图依然是目前智能驾驶不可或缺的东西。因为道路结构的推理对自动驾驶决策规划算法至关重要,它直接与自车驾驶安全强相关。
百度认为,高精地图最核心的一个问题就是成本,要提升高精地图的利用率,必须先给其降本。对此,百度专门为智驾规模化泛化专门打造了”轻量化”自动驾驶地图,降低地图的制作成本。具体措施包括以下几个方面:
采集阶段对地图数据减负。
原先同路段需要通过反复采集的方式来降低误差,成本高,效率低。百度通过线上PNC算法优化和地图点云拼接算法的升级,提升对地图精度误差的容错力,每条路线仅需要采集1次即可制图,大幅降低了地图生产的外业成本。
定位图层降维。
此前,一份高精地图至少需要特征点、激光点云反射值和Landmark三份图层数据才能成图。现在定位算法降低对点云和特征点的依赖,仅依靠Landmark定位图层即可支撑ANP3.0的城市道路高精自定位。
地图元素标注瘦身。
高精地图包含静态,动态多个层面的实物参与。最典型的就是路口红绿灯识别,此前需要对每个灯头都进行单独标注,并且灯头也需要与其对应的车道线进行绑定关联,标注人员的操作极为繁复,容易出错。
现在,百度通过提升感知红绿灯的能力以及提升对场景语义的理解能力,瘦身后的标注仅需要标注一个框,且仅需要和停止线建立一条绑定关系,降低了人工标注出错的概率和成本。
此外,百度还通过提升道路结构感知能力来分担高精地图的压力。
为此,百度设计了基于BEV的纯视觉实时在线地图学习框架,对照高精地图,从环视图像到矢量化道路结构,进行点对点的数据学习,以解决现实变更的发现问题和城市道路的泛化难题。
模型设计方面,在Transformer模型基础上,结合道路结构特点,加入道路几何与道路元素实例级Query在线融合,并通过自回归Decoder实现车端实时在线建图。
BEV 实时在线建图的关键在于真值监督数据的质量和规模。环视4D数据人工标注产线搭建复杂,将多视角的时序道路结构数据进行关联的难度很大,数据产能和质量是影响模型快速迭代的最大障碍。
基于高精地图和L4的数据积累,百度目前已经实现了数千万静态道路数据标注,完成从地图表达到BEV实例化、矢量化、时序化的全面升级。
最后,通过大模型初筛与人工质检,保证数据质量,实现像素级精准标注。
体验:数据服务平台
百度认为,其ANP 3.0的另一个优势就是体验好,智能驾驶的体验通过数据来不断优化。
背后拼的是自动驾驶的数据处理能力,包括车端原始数据的获取,数据的在线和离线挖掘提纯,数据标注及模型的迭代训练和完整评测,最后回到车端模型的持续集成、发版和部署。
百度认为其在AI、云计算和自动驾驶领域积累深厚,并且打造了一款创新的数据闭环SaaS产品。通过对数据挖掘、标注、模型训练、仿真验证的全生命周期管理,实现数据驱动智驾能力进化。
数据采集层面,百度的云上数据库能够有针对性地在线挖掘每个模型任务最需要的长尾数据。以此来保证模型AI能力所需的数据训练量。
在数据消化能力和模型稳定性方面。百度结合MLOps工程文化和流程机制,将复杂的模型训练步骤进行标准化封装,让其像工厂流水线一样,实现模型日常周级别迭代和高优问题的迅速修复。
平台以SaaS形态提供服务,即开即用,可一站式地完成数据管理和模型训练操作,提高整个组织的运转效率。
如此,通过这样的数据梳理能力保证智能驾驶系统不断迭代。
百度做了大量工作来保证在智能驾驶领域的优势。官方表示,目前ANP3.0已经进入北上广深多地泛化测试阶段,将在2023年夏天正式与普通用户见面。
推荐阅读: