CVPR 2020最新热点:物体位姿估计
©PaperWeekly 原创 · 作者|文永明
学校|中山大学硕士生
研究方向|物体位姿估计、目标检测
目录
G2L-Net:从全局到局部的 6D 位姿估计网络
PVN3D:3D 关键点投票 6D 姿态估计网络
基于可微分代理投票损失的 6D 姿态估计
论文标题:G2L-Net: Global to Local Network for Real-time 6D Pose Estimation with Embedding Vector Features
论文来源:CVPR 2020
论文链接:https://arxiv.org/abs/2003.11089
代码链接:https://github.com/DC1991/G2L_Net
第一篇推荐的 CVPR 2020 论文来自伯明翰大学和国防科技大学,提出了一种新的实时 6D 目标姿态估计框架 G2L-Net,该网络在 RGB-D 探测的点云上以分治的方式运行,能节省时间,并且能达到 SOTA 的效果。这篇论文很好的是已经把代码开源放了出来。
该位姿估计模型框架流程可以分为以下三步:
第一步先从目标物体的 RGB-D 图像获得粗糙的点云。
第二步把目标物体的点云传进平移定位网络,进一步进行 3D 语义分割和估计目标物体的平移。
第三步把经过语义分割和平移后得到精细的点云转换到局部标准坐标系,用旋转定位网络来训练队点向嵌入特征估计物体的旋转。
▲ Fig 1. G2L-Net的框架示意图
笔者认为这篇文章特别之处在于两点,他们的点向嵌入特征充分利用了不同视角的信息从而提高了精度。之前大部分位姿估计模型包括 DenseFusion,它们的 refine 阶段估计得位姿是异步的,也就是先训练好粗略旋转的网络,进一步再去训练细化这个旋转。
而这篇论文另辟蹊径在旋转定位网络中估计的粗略旋转与旋转残差估计网络估计的旋转残差同步输出,从而节省了运行时间。
▲ Fig 2. 不同视点(对于一个3D物体,需要至少四个四点来覆盖)
充分利用不同视角信息的想法是来自他们发现在不同视角下全局特征是高度相关高度相似的,这限制了泛化性能,在实验部分就可以表明,在相同大小规模的数据集中,使用点向嵌入特征,由于引入的视角信息,能提高泛化能力。
▲ Fig 3. (a)相同数据规模下,G2L-Net与Frustum-P的ADD-(s)指标对比 (b)训练轮次的影响
▲ Fig 4. 旋转定位网络的结构
对于旋转定位网络,论文指出我们可以定义如下的损失函数:
▲ Fig 5. G2L-Net实验效果
PVN3D
论文标题:PVN3D: A Deep Point-wise 3D Keypoints Voting Network for 6DoF Pose Estimation
论文来源:CVPR 2020
论文链接:https://arxiv.org/abs/1911.04231
代码链接:https://github.com/ethnhe/PVN3D
▲ Fig 6. PVN3D总框架
▲ Fig 7. PVN3D实验效果
▲ Fig 8. PVN3D定性实验(YCB-Video)
DPVL
论文标题:6DoF Object Pose Estimation via Differentiable Proxy Voting Loss
论文来源:CVPR 2020
论文链接:https://arxiv.org/abs/2002.03923
这是一项来自澳大利亚国立大学的工作,可谓是“小题大做”型的论文了,论文考虑的角度是,基于向量场的关键点投票已经证明了它在解决 6D 位姿估计问题上的有效性和优越性。
▲ Fig 9. DPVL
▲ Fig 10. DPVL总框架
点击以下标题查看更多往期内容:
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。