计算机视觉life

科技

无人驾驶与SLAM的契合点是?SLAM有什么理由成为无人驾驶的关键技术?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文转载自计算机视觉工坊观点一作者|卜寒兮https://www.zhihu.com/question/67473027/answer/253332306这也算是SLAM问题“终极二问”的其中一问了:Do
2023年5月20日
其他

我想挑战一下我的软肋~

点击上方“计算机视觉life”,选择“星标”最新干货第一时间送达大家好,我是小六,《视觉惯性SLAM:理论与源码解析》书籍作者,我们3月份举办了第一期《视觉惯性SLAM》第1部分14天读书学习挑战,课程完成率达到惊人的80%,这些同学在短期内平均每天1小时读书,学习视频,写作业,最后还写了几百字的复盘。小六的机器人SLAM学习圈
2023年5月18日
其他

解密ORB-SLAM:小白也能轻松掌握的视觉SLAM框架

点击上方“计算机视觉life”,选择“星标”快速获得最新干货在我们的社区里很多刚入门的小伙伴问的最多的问题,主要有:学完十四讲,下一步怎么办?一直停留在理论层面,不知道怎么开始实战刚入门,基础不好,推荐哪些视觉SLAM框架?想找一个SLAM开源框架,方便二次开发的那种,有什么推荐吗?看了一些论文,有些思路,但是自己实现有些困难,怎么办?有哪些适合初学者的学习路径?……这些问题是刚刚踏进视觉SLAM门槛的小伙伴最常见的问题,我刚开始学习的时候也有类似的困惑,我推荐的学习路径是:学习语言基础,《C++
2023年5月15日
其他

深度学习SLAM结合,有哪些新的研究趋势?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货大家好,我们机器人SLAM圈知识星球里,《深度学习SLAM论文解读》小组学习活动已经结束,各位成员做了17场精彩的视频分享,主题涉及:激光SLAM语义闭环端到端SLAM、NeRF自主泊车AVP-SLAM深度学习点线SLAM、动态场景SLAM、GCNv2深度VO、transformer的特征匹配学习小组的小伙伴绘制了非常详细的思维导图并进行了视频讲解:基于深度学习的SLAM综述深度学习在VSLAM中应用动态环境SLAM综述现已经全面上线!所有知识星球的会员均可免费学习!此外,GTSAM优化库解读、《计算机视觉中的多视图几何》精讲后续也会陆续上线,我们星球里目前已经有十几个主题,200+系列视频教程,涉及:带读书:《视觉SLAM十四讲》、《机器人学中的状态估计》、《多视图立体几何》深入了解第三方库:OpenCV、PCL、G2O、GTSAM、Ceres-solver开源框架学习:R3LIVE、LVI-SAM、FAST-LIO2、GVINS、TANDEM精读论文:深度学习SLAM论文、语义SLAM论文代码调试经验另外,我们已经整理好了星球5年(2018-2022)的年度答疑精华手册(详见下),超干货独家重磅资料,总共940页,会员可免费领取!长按二维码,加入即可开始学习~3天内无条件退款购买后务必加客服领取其他权益和加交流群现在加入免费送近千页5年机器人SLAM答疑手册下面介绍下我的机器人SLAM学习圈知识星球:星球里都有啥?星球会员可享受9大权益:1、多位大佬坐镇,为成员答疑解惑累计几万次答疑和评论交流2、每日SLAM领域最新论文翻译、解析知识星球内每天发布最新的定位、重建相关的论文、开源代码地址、主图,配中文翻译,方便大家第一时间掌握领域学术动态。3、每日最新招聘信息涵盖校招、社招、实习生4、每日各大公司SLAM岗位笔试面试题我们搜集了近期各大公司SLAM算法岗面试题,每天发布在星球内部,大家积极回答讨论交流。未来会汇总成册。5、每月6/16/26日星主直播每月6、16、26日星主都会做直播。有时候星主,有时候是邀请行业内大佬来做分享。内容涉及SLAM领域的学业、职场、创业、行业趋势/内幕等内容,已累计60+场。每次直播都会提前在星球内部及内部微信群通知,请留意,不要错过!下面是最近几次直播,星球成员可以看录播回放。6、系统学习视频教程我录制了基础入门学习视频。此外,我们组织星球里的优秀会员以学习小组的形式参与,并输出高质量系统性的原创学习视频。涉及如下专题:代码调试、OpenCV、PCL、G2O、Ceres、视觉SLAM十四讲、LVISAM、R3LIVE、语义SLAM、机器人学状态估计、GVINS、FAST-LIO2……
2023年5月8日
其他

我的机器人SLAM学习交流圈子!

点击上方“计算机视觉life”,选择“星标”快速获得最新干货大家好,我是小六,《视觉惯性SLAM:理论与源码解析》书籍作者,计算机视觉life
2023年4月25日
其他

计算机视觉life学习资料大礼包

点击上方“计算机视觉life”,选择“星标”快速获得最新干货计算机视觉life为大家准备了学习资料大礼包,内容涵盖SLAM经典综述文件SLAM领域优秀实验室+开源代码汇总学习必备电子书:OpenCV、Linux、多视图几何学习视频:TUM多视图几何系列教学、传感器及状态估计SLAM常见面试题集锦数据集EuROC、TUM
2022年10月27日
其他

VSLAM系列原创06讲 | 地图点投影进行特征匹配

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsVSLAM系列原创01讲
2021年2月27日
其他

VSLAM系列原创05讲 | 单目初始化中如何进行特征匹配?原理+代码

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsVSLAM系列原创01讲
2021年2月17日
其他

VSLAM系列原创04讲 | 四叉树实现ORB特征点均匀化分布:原理+代码

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsVSLAM系列原创01讲
2021年2月16日
其他

VSLAM系列原创03讲 | 为什么需要ORB特征点均匀化?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsVSLAM系列原创01讲
2021年2月15日
其他

VSLAM系列原创02讲 | ORB描述子如何实现旋转不变性?原理+代码

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsVSLAM系列原创01讲
2021年2月14日
其他

VSLAM系列原创01讲 | 深入理解ORB关键点提取:原理+代码

点击上方“计算机视觉life”,选择“星标”快速获得最新干货本文系ORB-SLAM2原理+代码实战系列原创文章,对应的视频课程见:如何真正搞透视觉SLAM?大家好,从今天开始我们陆续更新ORB-SLAM2/3系列的原创文章,以小白和师兄对话的形式阐述背景原理+代码解析,喜欢的点个赞分享,支持的人越多,更新越有动力!如有错误欢迎留言指正!代码注释地址:https://github.com/electech6/ORB_SLAM2_detailed_commentsORB特征提取小白:师兄,ORB-SLAM我一直都有听过,ORB应该是一种特征点,这个开源算法能够用ORB这种特征点命名,一定是因为这种特征点具有非常大的优势吧?师兄:没错。ORB(Oriented
2021年2月13日
其他

如何真正搞透视觉SLAM?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货ORB-SLAM2是视觉SLAM中特征点法的开源代表作,同时支持单目、双目、RGBD相机,涵盖视觉SLAM领域重要知识,如实时跟踪、局部地图、回环检测、BA优化,工程技巧。非常适合二次开发。笔者和小伙伴们一起做了ORB_SLAM2超详细的代码注释,见下,红色表示原作者代码错误!黄色是解答一部分疑惑,绿色的是详细的步骤,蓝色是代码原理推导。ORB-SLAM2详细注释的代码持续更新,网址:https://github.com/electech6/ORB_SLAM2_detailed_commentsORB-SLAM2
2021年2月4日
其他

代码开源!激光雷达 SLAM 的闭环检测:OverlapNet

的闭环检测问题。不需提前知道两个雷达扫描的相对位姿,只利用范围、法向量、强度和语义等线索,使用深度神经网络直接估计两个激光雷达扫描的重叠率,以及相对偏航角。展示了
2020年6月29日
其他

618来了!视觉SLAM图文+视频+答疑+学习路线全规划!

。4、精选SLAM常见面试题,定期发布在星球里,引导大家讨论,并提供参考答案,帮助找工作的同学从容面试。目前已经有几十条SLAM常见面试题目和详细解答。见《干货总结
2020年6月18日
其他

最新论文 | 激光雷达 SLAM 的闭环检测:OverlapNet

的主要框架。模型输入是两个雷达扫描的球面投影,包含范围、法向量、强度和语义四个信道。经过共用的卷积神经网络滤波,在两个扫描中提取的特征图被一同用于预测重叠率和相对偏航角。其中重叠率由如下图所示的
2020年6月14日
其他

录像&PPT | 多视角图像三维重建 & KinectFusion代码解析

点击上方“计算机视觉life”,选择“星标”快速获得最新干货大家好,SLAM研习社上周直播多视角图像三维重建和KinectFusionLib代码解析,已经上传B站,PPT也准备好了,没赶上直播的欢迎去学习转发,投币三连~1、《多视角图像三维重建》主讲内容:多视角图像三维重建原理及稀疏重建(SFM)、密集重建(MVS)的相关知识
2020年2月25日
其他

SLAM研习社 | 年终总结

点击上方“计算机视觉life”,选择“星标”快速获得最新干货计算机视觉life的小伙伴们,大家好,本周SLAM研习社没有例行发布直播通知,很多小伙伴积极的在后台询问原因,感谢大家的积极支持!2019年已经接近尾声了,研习社的直播也将告一段落,春节后我们将继续砥砺前行!请大家继续关注哦!回顾2019年,SLAM研习社从10月15日开始筹办,10月22日正式成立并接纳成员,并在GitHub上发布报名,从梦想萌芽到擦出火花再到凝聚成一个team,只用了短短一周,之后陆陆续续有更多的小伙伴加入,前进路上倍感亲切。研习社成员有在SLAM相关公司上班的技术大牛,有科研机构的研究者,也有知名高校的博士、硕士甚至本科生,大家都有各自的事业和学业,有各自擅长的领域也有不懂得盲区,但我们都有一个共同点:热爱SLAM,热爱技术,热爱分享。我们分布在天南海北,彼此之间从未谋面,没有严格的团队分工,没有专业的辅助团队,同样也没有任何经济上的报酬,所有的直播内容、宣传、后期剪辑,全都是靠我们自己的热情和兴趣,每个人都很用心。我们不是专业的教育机构,我们更像一个俱乐部,一个SLAM的party,我们的初心是学技术、交朋友,分享各自的头脑风暴,请教学术上遇到的种种困难,给无聊的生活一点乐趣,给自己一个展示自己的机会。
2019年12月30日
其他

SLAM研习社 | 直播录像《立体视觉:论述、标定、矫正、匹配》

视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~推荐阅读公开课视频回放
2019年11月27日
其他

SLAM研习社 | 录像回看方式及直播预告《机器视觉:空间变换》、《CMake的应用与实践》

点击上方“计算机视觉life”,选择“星标”快速获得最新干货如何看录播、下PPT?各位小伙伴大家好,上周末SLAM研习社为大家分享了两场精彩的直播,想要看回放录像的小伙伴可以在B站关注“计算机视觉life”查看视频哦!《SLAM基础:Linux入门》直播录像:https://www.bilibili.com/video/av75607667PPT获得方式:在计算机视觉life
2019年11月15日
其他

SLAM研习社第2期直播:《SLAM基础:Linux入门》、《2019年SLAM算法岗求职经历》

点击上方“计算机视觉life”,选择“星标”快速获得最新干货各位小伙伴大家好,上周六SLAM研习社圆满完成了第1期的录制《面试官心中的理想简历是什么样的?》,感谢大家的积极参与和支持!学习过上次直播的小伙伴,已经知道了求职简历该怎么写,那么作为马上要踏上求职路的老鸟,你知道求职路上有哪些捷径和坎坷吗?作为刚刚入门SLAM的小白,你又是否也在为不知道如何下手烦恼呢?本期SLAM研习社为大家带来两场直播1、《SLAM基础:Linux入门》直播时间:11月9日(本周六)晚上8-9点主讲嘉宾:江苏激扬智慧城市负责人,SLAM算法工程师,研究方向激光SLAM、机器视觉、智能机器人2、《2019年SLAM算法岗求职经历》直播时间:11月10日(本周日)晚上8-9点主讲嘉宾:哈尔滨工业大学硕士,2019参加SLAM算法岗秋招收获满意offer,研究方向VIO两场直播双重干货来袭,不管你是新手小白还是混迹江湖的老玩家,都绝对不容错过哦!直播地址:http://live.bilibili.com/21679522(可以提前在B站关注UP主:计算机视觉life,开播自动提醒)。也欢迎大家加入我们的QQ群(617030152),可以在群里提问交流,直播资料也会第一时间发在QQ群。录播视频:我们所有直播都会提供录播视频,来不及参加直播的小伙伴可以关注公众号,后续会发布录播视频。最后欢迎大家分享给更多的小伙伴,大家一起进步,也欢迎加入SLAM研习社,主讲、嘉宾等角色等着你加入!什么是SLAM研习社?SLAM研习社的核心团队来自计算机视觉life公众号的读者们,是自发组织专注于SLAM的开源学习组织。成员均为热爱SLAM领域的学习者或从业者,自愿报名并愿意投入时间来带领大家一起学习SLAM,每个人贡献一份力量,共同构建一个互相促进的高效的学习环境,最终所有人受益。我们的宗旨是将SLAM技术从基础深挖到应用,懂原理会应用,完全搞透彻,不留死角;如果你是小白,将获得快速入门提升的机会,如果你是优秀的学习者,可以获得持续全面的发展和提升,结识行业志同道合的朋友。我们的学习形式以定期线上直播互动为主,由SLAM研习社的成员担任主讲嘉宾,定期分享自己的知识体系,包括关键知识点梳理、代码讲解、疑难推导、问题解答、工作经验分享等,并提供录播回放,方便更多人学习。我们是一帮热爱SLAM的人,更是一帮愿意趁着年轻折腾的人,如果你也想结束孤独艰难的学习旅程,认识更多志同道合的朋友,或是分享你精彩的一面,带领更多迷途中的小伙伴迈过SLAM这道门槛,请附上您的简历,一起加入我们吧!申请主讲或嘉宾不需要你是大牛,只要熟悉SLAM某个知识点即可。报名发邮件simiter@126.com,附上自己简介、希望的角色、建议等。关于SLAM研习社更详细介绍及规划见(点击阅读原文也可跳转)https://github.com/electech6/LearnSLAM/blob/master/README.md交流群欢迎加入公众号读者群一起和同行交流,目前有SLAM、检测分割识别、三维视觉、医学影像、GAN、自动驾驶、计算摄影、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三
2019年11月8日
其他

IROS2019 |新开源SuMa++:语义激光雷达SLAM可靠过滤动态物体

最新SLAM、定位、建图求职分享,看完感觉自己就是小菜鸡!2019暑期计算机视觉实习应聘总结2018年SLAM、三维视觉方向求职经验分享经验分享
2019年11月7日
其他

SLAM研习社视频回放 | 面试官心目中的理想简历是什么样子的?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货各位小伙伴们大家好,11月2日晚,计算机视觉life公众号有幸邀请了计算机视觉life公众号主小六哥直播。他毕业于中科院,现任职计算机视觉算法工程师,研究方向为视觉SLAM、三维重建。他从面试官的独特角度,分享了《面试官心目中的理想简历是什么样子的?》。当下人工智能的热潮,吸引了一大批从业者,加上最近就业形势严峻,面对众多竞争者的你,求职时如何准备一份优秀简历?什么样的简历能够避免石沉大海?什么样的简历能够获得面试官的青睐?直播结束后,我们对直播录像进行了剪辑。有多种视频观看方式:1、在计算机视觉life
2019年11月5日
其他

2019 最新SLAM、定位、建图求职分享,看完感觉自己就是小菜鸡!

点击上方“计算机视觉life”,选择“星标”快速获得最新干货我们公众号之前发布过几篇SLAM方向求职分享:2018年SLAM、三维视觉方向求职经验分享经验分享
2019年8月28日
其他

​综述 | SLAM回环检测方法

点击上方“计算机视觉life”,选择“星标”快速获得最新干货在视觉SLAM问题中,位姿的估计往往是一个递推的过程,即由上一帧位姿解算当前帧位姿,因此其中的误差便这样一帧一帧的传递下去,也就是我们所说的累积误差。一个消除误差有效的办法是进行回环检测。回环检测判断机器人是否回到了先前经过的位置,如果检测到回环,它会把信息传递给后端进行优化处理。回环是一个比后端更加紧凑、准确的约束,这一约束条件可以形成一个拓扑一致的轨迹地图。如果能够检测到闭环,并对其优化,就可以让结果更加准确。在检测回环时,如果把以前的所有帧都拿过来和当前帧做匹配,匹配足够好的就是回环,但这样会导致计算量太大,匹配速度过慢,而且没有找好初值的情况下,需要匹配的数目非常巨大。因此回环检测是SLAM问题的一个难点,针对这个问题,在这里我们总结几种经典的方法供大家参考。词袋模型(Bag
2019年8月19日
其他

从零开始一起学习SLAM | 用四元数插值来对齐IMU和图像帧

Odometry,视觉惯性里程计)很火,我就想试试把IMU测量的信息和图像进行简单的融合,这样利用IMU测量的先验信息,可以给图像一个比较好的初值。。。师兄:嗯嗯,这个思路没问题的啊,图像信息和
2019年8月17日
其他

汇总 | 最全 SLAM 开源数据集

中查找到完整版表格或者根据此链接查看(需要科学上网):https://sites.google.com/view/awesome-slam-datasets/
2019年8月16日
其他

ORB-SLAM2 | 回环&DBoW视觉词袋

点击“计算机视觉life”关注,置顶更快接收消息!本文经知乎作者杨小东授权转载,二次转载请联系作者原文:https://zhuanlan.zhihu.com/p/61850005回环检测是SLAM中有效降低全局误差,构建全局一致地图的关键模块。跟踪丢失的时候,还可用于重定位。根据综述文献[1],检测回环的方法有image-to-image,
2019年8月14日
其他

SLAM方向公众号、知乎、博客上有哪些大V可以关注?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货在计算机视觉领域,视觉SLAM算是一个相对小众的方向,如何查找资源、如何follow大佬就显得格外重要。计算机视觉life给大家总结了SLAM方向优秀的公众号、知乎、博客大V,妈妈再也不用担心找不到好资源啦~注:由于微信不支持外部链接,所以文中不方便点击跳转。我们给大家准备了方便点击链接的PDF版本,公众号后台回复“大V”即可领取。一、公众号泡泡机器人:泡泡机器人由一帮热爱探索并立志推广机器人同时定位与地图构建(SLAM)技术的极客创办而成,通过原创文章、公开课等方式分享SLAM领域的数学理论、编程实践和学术前沿。经典文章:SLAM公开课“每天一分钟”优秀论文解读计算机视觉life:分享计算机视觉尤其是三维重建、SLAM方向的原创技术类公众号。经典文章:从零开始学习SLAM系列文章SLAM方向新进展、总结综述类文章深度相机系列文章点云PCL:关注点云库PCL的学习、最新的PCL进展,同时对最新代码进行研究,以及关于PCL在实际应用中的开发等问题的综述。经典文章:3D特征点概述点云深度学习系列SIGAI(张量无限):关注AI经典算法,涵盖机器学习、深度学习、机器视觉等领域。经典文章:vSLAM综述基于单目视觉的三维重建算法综述小白学视觉:主要发布SLAM技术、深度学习、视觉算法综述、视觉方案介绍、数学基础、编程算法讲解、行业趋势、求职感想等内容。经典文章:PCL入门系列等入门学习SLAM等图像特征系列文章等二、知乎半闲居士:《视觉SLAM十四讲》作者高翔博士经典文章:DSO详解也来谈语义SLAM/语义地图
2019年6月25日
其他

解放双手|教你进行相机与IMU外参的在线标定

点击上方“计算机视觉life”,选择“星标”快速获得最新干货一、相机与IMU的融合在SLAM的众多传感器解决方案中,相机与IMU的融合被认为具有很大的潜力实现低成本且高精度的定位与建图。这是因为这两个传感器之间具有互补性:相机在快速运动、光照改变等情况下容易失效。而IMU能够高频地获得机器人内部的运动信息,并且不受周围环境的影响,从而弥补相机的不足;同时,相机能够获得丰富的环境信息,通过视觉匹配完成回环检测与回环校正,从而有效地修正IMU的累计漂移误差。二、什么是相机与IMU外参?足够准确的相机与IMU外参是实现相机与IMU融合的定位与建图的前提。相机与IMU之间的外参包括两部分:(1)相机与IMU之间的相对位姿如下图所示,相机与IMU之间的相对位姿值的是相机坐标系和IMU坐标系之间的变换,包括相对旋转角和相对平移量。相机坐标系坐标和IMU坐标系坐标之间满足如下变换关系:将上式展开可以得到分别得到相机坐标系和IMU坐标系之间旋转角和平移量的变换关系:(2)相机与IMU之间的时间差由于触发延时、传输延时的存在,传感器的采样时间和时间戳的时间不匹配,如下图所示,从而导致相机和IMU之间存在时间差td。td用公式表示为:将相机的时间戳平移td后,相机与IMU之间实现了同步。三、为什么需要在线标定?大部分同学都是从跑公开的数据集开始入门的,这些数据集都给出了传感器的内外参数,不需要我们进行标定。但是,如果想投入到实际应用中,我们就需要使用自己的传感器。对于低成本、自己组装的相机与IMU传感器组合,相机与IMU之间的外参是未知的,这就需要我们对相机与IMU之间的外参进行标定。对于相机与IMU之间的相对位姿,传统的标定方法往往采用离线的形式,需要手持标定板进行一系列操作,费时费力。对于相机与IMU之间的时间差,由于每次运行时间差都不相同,所以只能依靠在线标定的方法。所谓在线标定方法,指的是在系统运行之初或者系统运行过程中完成标定,这种方法解放了双手,也能够保证足够的精度。四、相对位姿在线标定方法(1)VINS基础上的在线标定港科大沈劭劼实验室提出了在初始化的同时对相机与IMU之间的外参进行标定的方法[1]。流程如下图所示。首先进行相机与IMU之间相对旋转角的标定,标定完成之后进行初始化和相机与IMU之间相对平移量的标定。标定和初始化完成后进行视觉惯性联合的状态估计,并且把标定量也当做待估计的状态放入联合优化中。此在线标定方法被应用于VINS[2]中。代码实现包含于VINS中,VINS的源码已上传至github:https://github.com/HKUST-Aerial-Robotics/VINS-Mono。(2)VI-ORB-SLAM基础上的在线标定Weibo
2019年6月22日
其他

最强战队 | 三维视觉、SLAM方向全球顶尖实验室汇总

点击上方“计算机视觉life”,选择“星标”快速获得最新干货计算机视觉life的读者群和后台经常收到大家的提问,关于读硕博选择、研究方向选择、出国留学等各种问题。在此,我们为大家汇总了全球顶级的三维视觉、SLAM方向的研究机构,并对他们主要的研究成果做了简单汇总,从这些汇总中你可以:及时跟踪全球三维视觉方向顶级研究机构的研究成果,把握趋势。从中找到自己喜欢的研究方向、甚至未来的导师。欢迎转发给更多的朋友~欧洲英国伦敦大学帝国理工学院
2019年6月18日
其他

计算机视觉方向简介 | 视觉惯性里程计(VIO)

ICP原理及应用SLAM初识SLAM技术框架惯性导航系统简介视觉里程计:起源、优势、对比、应用视觉里程计:特征点法之全面梳理SLAM领域牛人、牛实验室、牛研究成果梳理我用MATLAB撸了一个2D
2019年6月16日
其他

吐血整理 | SLAM方向国内有哪些优秀的公司?

点击上方“计算机视觉life”,选择“星标”快速获得最新干货计算机视觉life为读者整理了国内几十家涉及SLAM的优秀公司,涵盖自动驾驶、仓储机器人、服务机器人、无人机、AR、芯片相机等领域。信息来自公司官网,排名不分先后,如有遗漏,欢迎留言补充。一
2019年6月11日
其他

谭平:从相机标定到SLAM,极简三维视觉六小时课程视频

本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载。谭平教授是加拿大西蒙弗雷泽大学副教授。不久前他与浙江大学合作了一系列三维视觉课程,内容涵盖相机标定、多视几何等多个方面。机器之心简要介绍了该系列课程,希望能够对读者学习三维视觉技术有所帮助。课程内容简介任何把相机连接到计算机的工作都不能忽视三维视觉。近年来,视觉
2019年5月30日
其他

汇总 | SLAM、重建、语义相关数据集大全

(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。Andreas
2019年5月29日
其他

前段时间参加了个线下交流会。。。

点击上方“计算机视觉life”,选择“星标”快速获得第一手干货前段时间应朋友邀请,去苏州做了个线下技术分享,这也是我第一次参加线下技术分享会,感觉收获满满。所以在公众号上给大家唠唠嗑。先放上分享的题目和链接吧,题目是《SLAM技术简介及入门方法》,内容提纲如下:
2019年5月27日
其他

干货总结 | SLAM 面试常见问题及参考解答

stereo,也就是双目深度相机,这个双目和我们平时说的双目有何不同?为什么有如下四个孔?12、我们在阅读文献或者代码中误差相关时,经常可以看到一个概念,叫逆深度(inverse
2019年5月19日
其他

2019暑期计算机视觉实习应聘总结

点“计算机视觉life”关注,星标更快接收干货!找实习感想从4月1日开始找实习,到5月13日收到南京地平线机器人口头offer和北京小鹏汽车技术面通过通知,这40来天的时间真的过的不容易,每天早上醒来都被“找实习”这三个字压得沉甸甸的,一有空闲时间就看牛客网面经和投简历,前前后后差不多有60家公司,大公司、小公司、独角兽公司,只要招深度学习/计算机视觉/图像算法相关岗位,我都投,投递的渠道最开始是官网投递,后来发现太慢了,招银、平安科技这两家公司填写的简历信息太多太耗时了,后来就转boss直聘、拉勾网、牛客网和内推邮箱渠道,这样就省事很多,一个平台填好简历,可以投递不同公司。这段时间自己也学到了很多东西,弥补了些自身技术盲点和加深了对一些基本原理和理论的理解,更重要的是认识到了与大佬之间的差距,对于搞技术的人来说,一定要保持终身学习的态度和激情,也要保持心态良好和身体健康。找算法实习岗对大多数人来说是心智和体力的持久战,据我所知,大多数人都花了1个月以上的时间,所以要做好长期的打算,如果一时失利也别灰心,出去放松一天,放松下自己的心情,保持良好的精神和身体状况很重要。实习平台很重要,一定要尽量投大公司、知名企业或者行业独角兽,不仅是面试正规和面试官温和亲切的态度,更重要的是自己本身面试之后经过反省总结,也能学到很多东西,小公司的面试大多都不是很正规。好的面试官,不管你技术实力是否满足他们要求,面试官一般都会很温和,让你放轻松,给你足够的尊重,有些面试官甚至会给你提些很有帮助和恳切的建议。这里,给我留下良好印象的是阿里和地平线机器人的面试官,面试官人真的超级友好和亲切。找实习建议心态第一,坚持为胜,找实习是一个持久战。对于技术实力一般的人来说,真的要保持良好的心态,不抛弃、不放弃,这中间也许你会经历很多失败,但是真的只要坚持下来,我不保证你能拿到很好公司的offer,但是你自己本省一定能从面试中学到很多东西,尤其是很多大公司的面试官会给你一些很恳切的建议,可以让你受益匪浅。实习要趁早。建议有条件的研一或者大三就去实习,对于暑期实习来说,简历投递一定要趁早,最好2月份就开始,我很晚才投简历,很可能就会错过内推时间和岗位hc没有的情况,我4月份开始投简历已经算是很晚了,所以也直接导致我投了海康威视之后,一直是简历复选中,很有可能就是hc已经没了。数据结构与算法题必须刷。虽然这是老生常谈的建议,但是我们必须记住很多大公司一定会有笔试题,就算是内推免笔试的,面试过程中也很有可能会出数据结构与算法题。这里我建议去leetcode或者牛客网上刷剑指offer,一般把简单和中等难度题刷会就可以,笔试题一般都不会很难,除非是谷歌、MSRA那种公司可能会对笔试题有更高的要求。刷题的话,第一次刷不会可以去看参考解题思路和答案,看完后要自己写出代码。常见面试题要掌握。其实关于计算机基础和计算机视觉算法原理的面试题,可以提前准备下,有些题频繁的问到,可以提前准备下,比如:1*1卷积作用,链式求导公式,多线程与多进程区别,tcp/udp通信原理等。这些常见面试题,都可以在牛客网找的到,当然不同岗位面试题不一样,甚至每个人的面试问题都有很大不一样,不要因为别人面经上的题不会,你就有些失去信心,但是对于同一个岗位的频繁出现的面试问题还是必须掌握。机器学习、算法工程师面试考点汇总,参考这里。简历要有亮点。paper、算法比赛、项目、实习必须要有一个啊,博客、github一定要有,这真的很给简历加分!实验室没有paper和项目条件的,可以考虑去天池、Datafountain、kaggle上打比赛,真的可以学到很多东西。面试过程建议不要紧张,表达要清楚流利,要记住,绝大部分面试官都是很友好和亲切的,尤其是大公司的面试官真的超级温和,这里为阿里和地平线机器人面试官点赞!对于那种不尊重人和看不起人的面试官,我个人觉得没必要去他们公司了,一般这种面试官会出现在小公司,一个面试官连对面试者基本的尊重都做不到,我难以想象这家公司的文化是什么样子。要对自己有信心,但是千万不能撒谎和装逼,一般面试过程中不会的问题,面试官也会跳过或者安慰你没事的,不用太紧张,碰到1、2个不会的问题也属正常。计算机视觉岗找实习心得首先,我的水平真的算是很一般的,真正的大佬都是很轻松的拿到数个满意offer。我自己是本科是双非大学自动化专业,研究生是中等211大学控制工程专业,本科主要搞嵌入式方向,研究生才转为计算机视觉方向和深度学习方向,这里也给后来者一个建议,如果不是真心热爱、喜欢你所从事的计算机视觉方向,只是为了钱的话那就真的没必要了,CV岗竞争真的很激烈,nlp和开发岗好很多,而且现在开发岗工资真的很高啊!其次,最开始找实习的时候,我没有刷过数据结构和算法题,导致我华为(程序写出来了,但是输入输出格式没注意)、百度、腾讯笔试统统挂了,那段时间真的超级难过,后悔没有提前刷题。4月20号之后,我开始在boss直聘上投简历,这里陆陆续续收到2家小公司面试通知和offer,也算是给了我些信心。最后,在这段时间一边把之前项目细节搞清楚,一边开始复习栈、队列、链表、二叉树和经典数据结构算法原理,并在leetcode上刷题,因为时间关系刷的不多,然后就是把Faster
2019年5月18日
其他

从零开始一起学习SLAM | ICP原理及应用

VIO、激光SLAM相关论文分类集锦研究SLAM,对编程的要求有多高?2018年SLAM、三维视觉方向求职经验分享2018年SLAM、三维视觉方向求职经验分享深度学习遇到SLAM
2019年5月17日
其他

详解 | SLAM回环检测问题

点击“计算机视觉life”关注,置顶更快接收消息!本文经知乎作者fishmarch授权转载,二次转载请联系作者原文:https://zhuanlan.zhihu.com/p/45573552在视觉SLAM问题中,位姿的估计往往是一个递推的过程,即由上一帧位姿解算当前帧位姿,因此其中的误差便这样一帧一帧的传递下去,也就是我们所说的累积误差。如下图所示,我们的位姿约束都是与上一帧建立的,第五帧的位姿误差中便已经积累了前面四个约束中的误差。但此时,如果我们发现第五帧位姿不一定要由第四帧推出来,还可以由第二帧推算出来,那显然这样计算误差更小呀,因为只有两个约束的误差了嘛。像这样与之前的某一帧建立位姿约束关系就叫做回环。回环通过减少了约束数,起到了减小累积误差的作用。那现在又有新的问题了,我们怎么知道可以由第二帧推算第五帧位姿呢?就像下图,可能第一帧、第三帧也可以呀。确实,我们之所以用前一帧递推下一帧位姿,因为这两帧足够近,肯定可以建立两帧的约束,但是距离较远的两帧就不一定可以建立这样的约束关系了。找出可以建立这种位姿约束的历史帧,就是回环检测。那我们现在的重点就是回环检测了。其实我们完全可以把以前的所有帧都拿过来和当前帧做匹配,匹配足够好的就是回环嘛,但问题是计算量太大了,两帧匹配本来就慢,这样做的话还没有比较好的初值,需要匹配的数目又如此巨大,CPU和我们都会疯的。但其实,任意两帧是否构成回环可以由更简单的方法做一个初步的筛选,就像一帧中有一个房子,另一帧中是一棵树,那这两帧明显关系不大嘛。通过这种方式,我们便可以对回环做出初步筛选。而这里说的房子、树就是词袋模型中的单词。也就是描述子的进一步抽象集合。词袋模型单词:差距较小的描述子的集合字典:所有的单词因此每一帧都可以用单词来描述,也就是这一帧中有哪些单词,这里只关心了有没有,而不必关心具体在哪里。只有两帧中单词种类相近才可能构成回环。因此,现在利用词袋模型我们将回环检测大致分为了以下三个步骤:构建字典(所有单词的集合)确定一帧中具有哪些单词,用向量表示
2019年5月10日
其他

现在开源的RGB-D SLAM有哪些?

点“计算机视觉life”关注,置顶更快接收消息!本文图片都是动态图,但公众号限制图片尺寸以及外链,建议点阅读原文查看,更方便点击链接和查看动态图。公众号后台回复:RGBD,进入交流群(限100人),一起交流RGBD
2019年5月8日
其他

SLAM中VIO的优势及入门姿势

点“计算机视觉life”关注,置顶更快接收消息!本文由作者游振兴(专注机器人行业及如何讨好女朋友),由泡泡机器人SLAM授权转载点文末阅读原文可跳转至作者知乎原文一、前言这篇文章作为我的硕士期间学习总结,将从导航定位层面介绍SLAM技术,并给初学者一些学习建议。不会涉及非常深的理论方面的东西,初衷是重点说清楚SLAM方法的应用价值和学习方向,笔者认为这个对初学者更加重要。这篇文章假设读者已经了解了SLAM的基本概念。文章中提到的部分参考资料,我整理了一份传到了网盘上:链接:https://pan.baidu.com/s/1gWqXH1cdvyeID3y7ktXOZQ密码:1m34二、为什么研究SLAM最近几年我们见证了机器人领域的快速发展,大疆的无人机已经很好地实现智能化飞行,谷歌的自动驾驶出行服务已经在局部范围进行试运营,波士顿动力的Atlas机器人一个漂亮的后空翻甚至让多数业内人士为止惊叹,AR/VR技术也在定义新的人机交互方式。这些都离不开稳定可靠的定位导航技术。2.1从机器人定位导航/状态估计说起SLAM的输出是运动体状态+环境地图,所以研究SLAM会有两个不同的侧重点,侧重前者可以用于机器人定位导航,侧重后者则用于三维重建,这篇文章假设读者关注的是前者,将SLAM作为机器人定位导航(状态估计)的一种方法展开下面的内容。运动体可以抽象为空间中的刚体,它的状态可以使用六自由度(三轴位置、三轴姿态)进行描述。以无人机为例,对无人机的运动控制是通过内环姿态控制和外环位置控制实现的,内环控制实现了机体在空间中的基本运动,外环位置控制则是实现路径规划、航点飞行的基础。为了对无人机姿态进行控制,需要有姿态量的反馈,这个是通过IMU/AHRS传感器进行姿态解算实现的;同样,位置控制需要位置量的反馈,可以实现位置测量和估计的传感器有GPS、UWB、LiDAR、Camera。GPS和UWB是利用外部信号实现的定位,LIDAR和Camera则是利用SLAM算法实现位置估计。同时,控制理论中,速度量可以加快机体响应速度,也是一个非常重要的量,复杂的姿态和位置控制环路里一般会加入速度(角速度、线速度)控制。所以通常我们也会考虑速度的测量估计。好吧,扯这么多其实就是想说,我们做状态估计的目的就是得出机器人三组状态量(位置、速度、姿态),为机器人运动控制做状态反馈。尽管不同的传感器会有不同的特征,进行数据处理、运动估计的方法也不尽相同,但是目的是一致的,都是为了得到机器人的三组状态。所以,如果事有兴趣将SLAM应用在机器人领域上,应该从机器人定位导航的层面上认识SLAM的地位,SLAM只是机器人定位导航的一种方法,不同传感器的不同特性使其适用于不同的场合,为了提高定位导航系统的可靠性稳定性,在实际中往往涉及多传感器融合。而SLAM方法进行定位导航的优势在于不需要外部先验信息,使用范围更广泛。而且通过SLAM的学习,我们将学到定位导航需要的所有知识技能。下图是国内一家自动驾驶公司的招聘信息,我圈出了定位导航的职位要求。数学知识、滤波/优化方法、传感器融合,软件编程这些做机器人导航定位需要的知识技能,在SLAM的学习中都会涉及到。2.2
2019年5月7日
其他

经验分享 | SLAM、3D vision笔试面试问题

点“计算机视觉life”关注,置顶更快接收消息!本文作者已签DJI,点击文末阅读原文查看作者知乎接着上次关于《2018年SLAM、三维视觉方向求职经验分享》的介绍,下面记录下之前笔试面试碰到的一些问题,有一些纯粹是瞎聊(这个有可能扛不住=_=)。由于时间有点久远,好些已经记不得了,再不记就要忘光了,往后憋毕设估计也没有心思整理了。只记问题~大部分网上都有答案,也可以参看第六部分。另外,因为我有些项目涉及机器学习、深度学习部分所以面试也有所涉及,这部分对于SLAM求职者来说没必要花费太多精力。一:程序基础二:数学基础三:SLAM四:传统图像处理五:机器学习以及深度学习六:参考资料一:程序基础考察C++、数据结构多线程的了解stl有什么?vector扩充方式,size与capacity区别顺序存储结构有哪些?左值引用与右值引用map与unordered
2019年5月1日
其他

汇总 | 3D机器学习资源汇总

点“计算机视觉life”关注,置顶更快接收消息!人们已经不能满足成天只在二维世界里弯弯绕绕了。越来越多的研究人员涌向3D机器视觉,@timzhang642同学以及其他有志之士将众多3D机器学习资源进行了汇总,让你从入门到精通。github链接:https://github.com/timzhang642/3D-Machine-Learning作者:@timzhang642【目录】Courses
2019年4月30日
其他

立体匹配技术简介

filter),权重中值滤波,快速双边滤波。滤波的核心思想是按照不同滤波器的思想,构建不同代价聚合的方式,充分反映待匹配点与领域的(几何和色彩)关系。滤波方法的另一个显著优点就是具有很好的保边特性。
2019年4月22日
其他

MaskFusion: 多运动目标实时识别、跟踪和重建

点击“计算机视觉life”关注,置顶更快接收消息!本文经知乎作者原野寻踪授权转载原文:https://zhuanlan.zhihu.com/p/62059382近期在调研关于RGBD在室内移动机器人下的语义导航的研究。目前帝国理工的Andrew
2019年4月20日
其他

视觉SLAM关键方法总结

VIO、激光SLAM相关论文分类集锦最近一年语义SLAM有哪些代表性工作?视觉SLAM技术综述研究SLAM,对编程的要求有多高?深度学习遇到SLAM
2019年4月15日
其他

如何从零开始系统化学习视觉SLAM?

已分享系列原创文章包括:视觉SLAM、深度相机、入门科普、CV方向简介、手机双摄、全景相机、相机标定、深度/机器学习、医学图像、前沿会议、机器人、ARVR、行业趋势等,点击菜单栏“汇总分类”查看
2019年4月13日
其他

快看,那个学SLAM 的崩溃了!

simiter@126.com,邮件标题「开源SLAM」。不管是否通过筛选,一周内都会收到回复。最后,请把此文转发给你认识的SLAM大神,愿你头发浓密,心想事成。推荐阅读从零开始一起学习SLAM
2019年4月11日
其他

公开课视频回放 | 基于RGBD和IMU的实时室内SLAM及三维重建

从全景图恢复三维结构关注:计算机视觉life,一起探索计算机视觉新世界~觉得有用,给个好看啦~
2019年4月1日