Apollo问答丨请问感知里面的Point Pillars可以单独进行离线检测吗?
1、高精度地图中使用的是WGS84坐标,为啥把坐标再转为UTM坐标系呢,还有proj4的参数为啥是这样:
"+proj=tmerc +lat_0=37.413082 +lon_0=-122.013332 +k=0.9999999996 +ellps=WGS84 +no_defs"
"+proj=utm +zone=50 +ellps=WGS84 +datum=WGS84 +units=m +no_defs"
2、pj_transform转出来的坐标是三维的,为啥有些只用了二维坐标,比如(在Apollo6.0中的ParsePointSet和ParseGeometry),而且向量也是二维的?在重庆感觉只使用二维好像还是找不到自己哎;
3、使用UTM坐标系不用考虑跨区吗,疑惑中,这块怎么处理的呢?
——@王少波
1. proj库采用的格式就是上述格式,至于每个参数的含义可以参考proj库文档。WGS84是GPS坐标,UTM坐标是平面坐标,利于路径规划。
2. 目前没有加入三维信息坡度信息,实际上由于路的连通性,可能只是对定位的影响,对汽车的路径规划影响没那么大。
3. 目前没有考虑跨区,感觉可以优化一波。
——@王方浩
请问这是什么问题?
A1:看下data/core中的coredump文件。
——@王方浩
A2:很明显任务进程被挤掉了。如果用的ip摄像头,检查下ip是否重复和别的设备,如果USB的,查下驱动是否重用。GDB下,看看哪里挂掉了。
——@北巷深情南向猫
请问感知里面的Point Pillars可以单独进行离线检测吗?
——@奋斗
这个理论上是可以的,但是Apollo(6.0.0)里面没有直接提供相关的脚本或者工具,当然perception/lidar/tools下面有一些工具,但是可能不合适,可以参考。代码主要在perception/lidar/lib/detection/lidar_point_pillars下面,模型在
perception/production/data/perception/lidar/models/detection/point_pillars.
1、建议:拿Apollo里面的模型自己写推理,当然复制Apollo里面的就可以。
2、感觉1麻烦,可以简单写个main()调用Apollo编译好的.so。
3、感觉1.2都麻烦,可以写个Python监控单独Lidar感知通道,再可视化一下。
4、还有终极方法:这个Point Pillars网上一堆文章和代码貌似,面向Github。
——@北巷深情南向猫
规划模块里面的Reference Line Provider是不是就是生成Frenet坐标系?
——@Colin-规划控制-深圳
不是,Reference Line是高精地图的车道中心点平滑出来的参考线。
——@李天骄
注:关于该问题社区布道师用文档形式给出了非常详细的答复,需要的开发者可以私聊小哥哥。
大佬,请教下,planning_pad是什么信息?还有就是Planning模块如何做场景选择?
——@朱帅根据当前Frame,去看看数据结构。Planning_pad你可以理解成标志位,就是切换驾驶行为的时候,把关键动作设置一个标志。比如,靠边停车,或者左转等等,切换之后,运行相应算法。
——@北巷深情南向猫
(接上条)我理解过程是这样的:先做场景选择,然后做Planner选择,Planner再细分不同的规划算法。是不是?
——@朱帅
这么理解,也没毛病。看一下planning/proto/pad_msg.proto就应该明白了。对于场景切换,宏观上根据规划的Frame数据,其实Routing也逃不掉干系,场景切换都会判断当前以及未来请求的场景id,比如正常路的、泊车的、路口的等等,都不同。这个场景的线程是一直循环运行的,所有场景,一直判断id,直到某一个id匹配,就会切换,反应到Planning里面,就是Frame。当然还有一些其他判断条件,每个场景不一样,具体看场景管理代码,很清晰。
——@北巷深情南向猫
(接上条)planning_components 读取Storytelling,会不会Storytelling 也Output相关场景?
——@朱帅
是的,Frame里面包含Storytelling的信息,做场景选择。
——@北巷深情南向猫
各位技术大牛也可以直接在开发者技术交流群或者小程序问答版块回答问题获得相应积分,参加社区布道师评选,为开发者答疑解惑,更有机会获得小灶辅导~
报名可戳:社区布道师参与评选。