赞
踩
SLAM的英文全程是 Simultaneous Localization and Mapping,中文称作同时定位与地图创建。SLAM试图解决这样的问题:一个机器人在未知的环境中运动,如何通过对环境的观测确定自身的运动轨迹,同时构建出环境的地图。SLAM技术正是为了实现这个目标涉及到的诸多技术的总和。早期的SLAM多利用声呐、单线激光雷达等传感器来实现。从2000年以后,随着计算机视觉的发展,利用摄像头的视觉SLAM开始成为研究热点,并且在许多领域中体现出巨大的应用价值,主要分为以下几个方面。
SLAM是由Smith Self 和Cheeseman于1986年首次提出,距今为止已经发展了30多年,其主要发展历程可划分为以下3个时代。
现代视觉SLAM系统可以分为2部分:前端和后端。前端提取传感器数据构建模型用于状态估计,后端根据前端提供的数据进行优化,这个架构如图1所示。
视觉SLAM的前端关心的是相邻图像之间的相机运动,又称为视觉里程计VO。VO的实现方法,按是否需要提取特征,分为特征点法的前端及不提取特征的直接法的前端。
特征点法前端主要包括特征提取与匹配,位姿求解。常用的特征提取方法包括SIFT特征、ORB特征与SURF特征。经测试在同一幅图像中同时提取约1000个特征点的情况下,ORB约要花费15.3ms,SURF约花费217.3ms,SIFIT约花费5228.7ms。不过就精度而言,SIFIT特征的效果最好。相机位姿的求解通常是根据匹配的点对来计算的,对于多组2D像素点,我们可以利用对极几何来估计;对于多组3D空间点,我们可以采用ICP来解决;对于3D空间点和2D像素点,我们可以采用PNP来求解。特征点法的代表作是PTAM和ORB-SLAM2.
直接法的前端是根据像素灰度的差异直接计算相机运动,并根据像素点之间的光度误差来优化。直接法既避免了特征的计算时间,也避免了特征缺失的情况。只要场景中存在着明暗变化,直接法就能工作。根据使用像素的数量,直接法分为稀疏,稠密和半稠密三种。稀疏方法可以快速地求解相机位姿,而稠密方法可以建立完整的地图。不过直接法也存在着以下几个缺陷:(1)非凸性:由于图像是强烈非凸的函数,使得优化算法容易陷入极小值,在运动很小时直接法效果更好;(2)单个像素没有区分度;(3)灰度值不变是很强的假设。直接法的代表作为SVO和LSD-SLAM。
后端优化主要处理SLAM过程中的噪声问题。早期的后端优化考虑的问题是如何从带有噪声的数据中估计整个系统的状态,以及这个状态估计的不确定性有多大——这也称为最大后验概率估计。这里的状态既包含机器人自身的轨迹(每个时刻的位姿),也包含地图。很长一段时间内早期的这种方法并不称为后端优化,而是直接被称为“SLAM研究”。该方法的代表作为MonoSLAM。先阶段效果最好的优化算法是BA和位姿图优化。从每一特征点反射出来的几束光线(boundles of light rays),在我们把相机位姿和特征点空间位置做出最优的调整(adjustment)之后,最后收束到相机光心的这个过程。SLAM的研究者们通常认为包含大量特征点和相机位姿的BA计算量过大,不适合实时计算。直到近十年,人们逐渐认识到SLAM问题中BA的稀疏特征,才能够使他在实时的场景中应用。位姿图优化则是不再优化路标点的位置,而只关心相机的位姿。相机间的位姿通过看到的共同的路标点产生了关系(边)。位姿图优化可以大量减少计算量,实现全局的相机位姿优化。
得益于视觉独特的特征,我们可以通过机器学习的方法检测出相机经过同一个地方。如果能够成功的检测到这件事,就可以为后端的全局优化提供更多有效的数据,使之得到更好的估计,特别是得到一个全局一致的估计。现阶段应用最广的回环检测方法是词袋模型(Bag-of-Words)。首先,我们利用机器学习的方法从大量图像中提取特征并将其聚类形成一部词典。然后,将每幅图像根据词典编码为一个向量的描述。最后根据不同的图像比较向量之间的差异进行图像的匹配,差异小于某个阈值的两幅图像再根据对极几何进行几何验证,对于验证通过的一对图像认为是相机在同一个地方。该方法的代表作为DOBW2。
地图是对环境的描述,而建图是指构建地图的过程。地图的形式随着SLAM的应用场合而定。大体上可以分为度量地图和拓扑地图两种。度量地图强调精确地表示地图中物体的位置关系,通常可分为稀疏和稠密两种。相比于度量地图的准确性,拓扑地图更强调地图元素之间的关系。它放松了地图对精确位置的需要,去掉了地图的细节问题,然而它不擅长表达具有复杂结构的地图。
基于监督学习的特征点提取方法。利用卷积神经网络进行自主学习特征点的提取及描述方法,而不是采用之前的人工设计的特征点。
基于监督学习的图像深度估计。利用多层深度网络对大量带有深度标签的图像进行学习以达到对单一图像的深度估计。
基于无监督学习的图像深度与里程计估计。利用光学误差来自我修正训练的深度网络实现图像序列的深度与里程计估计。
语义地图的建立与表达。在度量地图的基础上加上语义标签,实现不仅表达了物体的位置,还表达了物体的类别。
主动式SLAM。机器人主动调整自身位姿去寻找有利的特征点。机器人自主执行所选择的行动并决定是否终止任务
基于新的非传统的传感器的SLAM。深度、光场和基于事件的摄像机,磁场传感器和热传感器。
【参考文献】
[1] Cadena C, Carlone L, Carrillo H, et al. Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age[J]. IEEE Transactions on Robotics, 2016, 32(6):1309-1332.
[2] Fuentes-Pacheco J, Ruiz-Ascencio J, Rendón-Mancha J M. Visual simultaneous localization and mapping: a survey[J]. Artificial Intelligence Review, 2012, 43(1):55-81.
[3] Liu H, Zhang G, Bao H. A Survey of Monocular Simultaneous Localization and Mapping[J]. Journal of Computer-Aided Design & Computer Graphics, 2016.
[4] Mur-Artal R, Tardós J D. Fast relocalisation and loop closing in keyframe-based SLAM[C]// IEEE International Conference on Robotics and Automation. IEEE, 2014:846-853.
[5] Mur-Artal R, Montiel J M M, Tardós J D. ORB-SLAM: A Versatile and Accurate Monocular SLAM System[J]. IEEE Transactions on Robotics, 2017, 31(5):1147-1163.
[6] Mur-Artal R, Tardos J D. ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras[J]. IEEE Transactions on Robotics, 2016, PP(99):1-8.
[7] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]// International Conference on Computer Vision. IEEE, 2012:2564-2571.
[8] Galvez-López D, Tardos J D. Bags of Binary Words for Fast Place Recognition in Image Sequences[J]. IEEE Transactions on Robotics, 2012, 28(5):1188-1197.
[9] Klein G, Murray D. Parallel Tracking and Mapping for Small AR Workspaces[C]// IEEE and ACM International Symposium on Mixed and Augmented Reality. IEEE Computer Society, 2007:1-10. [6] Mur-Artal R, Tardos J D. ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras[J]. IEEE Transactions on Robotics, 2016, PP(99):1-8.
[10] Davison A J, Reid I D, Molton N D, et al. MonoSLAM: Real-Time Single Camera SLAM[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2007, 29(6):1052-1067.
[11] Engel J, Schöps T, Cremers D. LSD-SLAM: Large-Scale Direct Monocular SLAM[J]. 2014, 8690:834-849.
[12] Forster C, Pizzoli M, Scaramuzza D. SVO: Fast semi-direct monocular visual odometry[C]// IEEE International Conference on Robotics and Automation. IEEE, 2014:15-22.
[13] Weerasekera C S, Garg R, Reid I. Learning Deeply Supervised Visual Descriptors for Dense Monocular Reconstruction[J]. 2017.
[14] Zhan H, Garg R, Weerasekera C S, et al. Unsupervised Learning of Monocular Depth Estimation and Visual Odometry with Deep Feature Reconstruction[J]. 2018.
[15] Eigen D, Puhrsch C, Fergus R. Depth map prediction from a single image using a multi-scale deep network[C]// International Conference on Neural Information Processing Systems. MIT Press, 2014:2366-2374.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。