其他
ICRA2021专场回顾|Apollo自动驾驶技术中的视觉感知
摄像头作为传感器在自动驾驶中的意义 百度Apollo Lite 环视视觉感知技术 基于深度学习的三维⽬标检测
在2019年CVPR大会上,百度Apollo为大家带来了中国首个L4级别城市道路自动驾驶解决方案Apollo Lite的分享。Apollo Lite使用10个摄像头进行360度环境感知。包括3个前置摄像头,1个后置摄像头,4个侧置摄像头和2个侧置鱼眼摄像头。在过去的两年里,Apollo Lite已经取得了很大的进步。一是Apollo Lite已经在北京、广州、上海等地区进行了路试,有能力应对中国复杂的道路环境;二是在百度的AVP和ANP智能驾驶产品中应用了Apollo Lite的技术。
通过视觉感知,我们可以对环境模型有一个全面的了解。环境模型中的元素可以分为三类:
道路使用者——检测所有车辆、自行车、行人、交通锥等可移动物体,并输出3D信息;
道路语义——停止线,交通灯和道路指示等具有语义信息的道路元素;
道路几何——道路表面建模。
我们使用三个引擎来解决二维到三维的问题:
1、使用神经网络端到端估计3D框。
3D障碍物检测:端到端估计,基于射影几何的优化; 触地线索:车轮、触地线、Freespace检测; 环境理解:地面建模、车道属性、路面建模和车道分配; 视觉点云:基于图像的深度估计,视觉雷达。
首先对图像中的三维长方体和三维线索(如车轮)进行预测。 然后通过投影几何、道路几何和应用几何推理来保证二维图像和三维世界之间的约束。 最后,我们得到每个对象的3D框。
Apollo Lite采用高度学习化的感知算法,整个机器学习系统由30多个神经网络组成,可以对10个摄像头进行实时处理。除了常见的目标检测和场景分割,机器学习系统还包括端到端的3D估计和表观特征等预测推理,这些大大简化了障碍物的3D估计和跟踪中的后处理策略。而且,高度学习化的感知系统也赋予了自动驾驶系统消化数据和持续进化的能力,是整个数据闭环的重要基础。为了让学习化的系统随着道路测试不断自我进化,我们需要构建高效的数据引擎基础设施。
该基础设施有四个重要的子系统:
数据挖掘和筛选系统负责通过交叉验证等产生高价值的数据;
标注系统负责高质量数据标注;
模型训练系统负责大规模多任务模型训练;
多层次的测试系统,可以在不同的层次(如模型层次、感知层次)对系统进行标定。
点击文章左下角『阅读原文』
可观看直播回放