赞
踩
前面我们提到,ORB-SLAM3作为常用的机器人建图与定位技术,是当前最优秀的基于特征点的视觉SLAM系统之一。
它支持单目、双目、单目惯导、双目惯导、RGB-D等多种相机模式,兼具精度和鲁棒性,是机器人SLAM算法工程师的一项「必备技能」。
为了更好地帮助大家学习和理解ORB-SLAM3,小智计划进行一系列理论与实践相结合的深度技术分享。而这些,都是我们在实践过程中总结出来的宝贵经验。
具体内容包括:
1. ORB-SLAM3论文导读与整体算法流程梳理
2. ORB-SLAM3中的跟踪线程
2.1特征点提取、匹配,以及地图初始化
2.2 IMU预积分原理及代码梳理
2.3跟踪模式详解:参考关键帧跟踪、恒速模型跟踪、重定位跟踪、局部地图跟踪
3. ORB-SLAM3中的局部建图线程
3.1 IMU的初始化
3.2 局部建图线程代码梳理
4. ORB-SLAM3中的闭环检测及多地图融合线程
4.1闭环检测代码梳理
4.2多地图概念及地图融合代码梳理
本期则是这系列课程的「开胃前菜」——ORB-SLAM3的编译运行。
我们结合实践经验,对ORB-SLAM3安装和编译的常见问题进行总结分享,同时细化不同传感器的运行方式。可以说,这是一份非常适合「新手小白」的ORB-SLAM3编译运行指南。
第一步,下载代码:
git clone https://github.com/UZ-SLAMLab/ORB_SLAM3
或者
git clone https://github.com/electech6/ORB_SLAM3_detailed_comments
第二步,按照代码中的README.md,进行环境安装和编译即可,具体就不赘述了。
不过我掐指一算,大家在编译过程中,可能会遇到几个小问题:
1)提示找不到GLEW;
解决方法:sudo apt install libglew-dev;
2)当执行./euroc_examples.sh时,出现找不到libpango_image.so这个库的情况;
<Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。