查看原文
其他

解密ORB-SLAM:小白也能轻松掌握的视觉SLAM框架

小六 计算机视觉life 2023-05-20

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货


在我们的社区里很多刚入门的小伙伴问的最多的问题,主要有:

  • 学完十四讲,下一步怎么办?
  • 一直停留在理论层面,不知道怎么开始实战
  • 刚入门,基础不好,推荐哪些视觉SLAM框架?
  • 想找一个SLAM开源框架,方便二次开发的那种,有什么推荐吗?
  • 看了一些论文,有些思路,但是自己实现有些困难,怎么办?
  • 有哪些适合初学者的学习路径?
  • ……

这些问题是刚刚踏进视觉SLAM门槛的小伙伴最常见的问题,我刚开始学习的时候也有类似的困惑,我推荐的学习路径是:

  1. 学习语言基础,《C++ Primer》必看,最好代码跟着敲一遍。如果想要精进,可以看看我们的C++基础入门课程,质量很不错。
  2. 学习《视觉SLAM十四讲》书上的原理要看懂,代码要自己编译运行调试。也可以学习我的新书《视觉惯性SLAM:理论与源码解析》,是十四讲之后的进阶书籍。如有余力,建议学一学OpenCV编程、《数字图像处理》。
  3. 挑一个开源框架学透它。这个开源框架最好满足如下条件:功能全面、研究的人比较多、可扩展性强、方便二次开发、代码规范、难度适中、最好持续更新中。能够满足这个条件的开源框架基本就只有ORB-SLAM2了,该代码的作者团队还在持续更新,一年多前开源了ORB-SLAM3,至今仍然在不断的更新和打补丁,预计后续还会有更多的新版本。
  4. 基于ORB-SLAM2代码去做移植,实地测试,改进遇到的问题。或者在ORB-SLAM2基础上增加稠密建图、语义地图、动态场景等等,都是很好的思路,毕竟借助现有框架二次开发是比较高效的。事实上,发表在ICRA, IROS等很多顶会的工作都是基于ORB-SLAM2框架的延伸。

正是基于上述原因,我选择了ORB-SLAM2作为计算机视觉life平台的王牌课程,为了降低学员的学习门槛,对ORB-SLAM2源码进行了保姆级详细注释,可以毫不夸张的说,这是目前全网最详细的中文注释的ORB-SLAM2代码,而且是持续更新的。不管你是否是我们的学员,都可以学习这份走心注释的代码:https://github.com/electech6/ORB_SLAM2_detailed_comments

课程至今已有几千名学员,内容也在不断的完善和更新。第6期《视觉SLAM必学基础:ORB-SLAM2源码解析:从 理论到实战》,将于6月9日正式上课!

长按或扫描开始学习

主要有如下特点

  • 课程中不仅讲述了源码中涉及到的所有视觉SLAM理论知识,而且讲师中文详细注释源码并逐行讲解,并有“多线程、CMake、bug解读汇总、真机实操”等大量工程实践内容,还有“论文研究思路和拓展”等学术前沿内容。

  • 采用社区化的全新学习模式,课程不仅包括视频,还包括针对课程的交流社区,答疑,资料、讨论、学术动态都在社区里进行!

  • 采用高效率的闯关学习模式,完成当前课程和作业才能继续,倒逼学习,避免买课后放在角落里吃灰

  • 押金退款机制。定期作业、总结复盘,完成要求可退款。为了押金冲刺!

  • 督促学习机制,班主任会定期公布进度,督促后进同学,一起进步不掉队!

  • 课程学员均可领取独家120+页电子书课件!

全国最大的机器人SLAM开发者社区

点击查看详情


学机器人SLAM/3D视觉,就上cvlife.net 

点击领取学习资料 → 机器人SLAM学习资料大礼包

技术交流群


点击“阅读原文” 开始学习之旅

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存