赞
踩
第一次完成阅读论文任务,粗略总结如下,整篇论文旁征博引,综合性强,如有不足或是需要补充之处,欢迎批评指正。
这篇文章完成的是把深度学习的一些方法加入到定位和建图(SLAM)中,并提出了基于深度学习的SLAM方法的新的分类形式以及对当前模型局限性的分析和对未来的展望
定位和建图的问题一直在被人们研究,很多学者提出基于假设的各种算法,但都是在理想情况下发挥较大作用,但是现实中往往存在着各种误差,实际效果可能大大减弱,为了解决这一问题,便引入了近阶段迅速发展的深度学习机器学习中的思想——数据驱动学习方法作为解决方案。于是原来的有人为设计算法的基于模型的方法可以改进为由大量数据中得到有用信息的基于学习的方法。
这是第一篇全面而广泛地涵盖了现有的基于深度学习的定位和建图算法工作的综述文章。
里程计估计
建图
全局定位
SLAM
下面介绍一下每个分类
分为端到端VO和混合VO。前者纯粹根据基于神经网络,后者是神经网络和经典VO算法的结合
1.端到端VO
根据是否使用真值标签分为有监督VO和无监督VO。
1 有监督VO:输入连续图像,输出相机平移和旋转。基于RNN+ConvNet(循环神经网络和卷积神经网络)系统架构。
优点:
1) 可对从未见过环境进行位姿估计
2)可从单目相机生成绝对尺度轨迹
2 无监督VO:输入连续图像,输出目标图像。无标记数据,由深度网络和位姿网络组成。
缺点:
1) 尺度模糊 ->可通过双目图像对或者集合一致性思路解决
2)有前提假设:场景静态,无相机遮挡 ->通过刚体结构重建器和一个非刚性运动定位器估计静态场景结构和运动力学
2. 混合VO
将学习到的深度估计值合并到传统VO算法中
是将两个传感器结合的方法,利用Camera的3D外观和尺度不确定性与惯导的尺度明确和噪声干扰互补,进而估计相机位姿。
VINET提出将从两连续RGB图像中提取的视觉土整和从IMU数据序列中提取的惯导特征结合来预测相机相对位姿;
Chen等提出选择性传感器融合方法。
从分段惯导数据独立窗口中学习到极坐标的二维运动位移的方法
实现方法举例:基于LSTM的框架——IONet,从惯导序列中进行相对位姿的端到端的学习测量
优点:只有该方法可作为极端环境下提供姿态信息的备选方案
依靠点云配准来监测特征点,使用匹配算法通过最小化两个连续点云扫描之间的举例来获得位姿变换。
优点是能够在复杂的照明条件和无光学特性的情况下持续工作
缺点是激光雷达里程计的性能对非平滑运动引起的点云配准误差
非常敏感。此外,激光雷达测量的数据质量也会受到极端天气条件(例如大雨或起雾)的影响。
深度学习生成了一套用于场景感知和理解的工具,应用范围从深度预测到语义标记,再到三维几何重建。本节概述了与现有的基于深度学习建图方法相关的工作。我们将它们分为几何映射、语义映射和一般映射。
几何映射中使用的场景表示的典型选择包括深度、体素、点和网格。
用深度图表示场景几何信息,进行场景重建
(如何)用三维空间中的体积元素生成高分辨率三维体积模型
坐标点 仅可完成某单个目标的重建任务,暂未发现用于场景重建的点生成方法
可捕捉三维形状表面,将单目SLAM的稀疏特征与ConvNet的稠密深度图相结合
语义映射将语义概念(如对象分类、材料组成等)与环境的几何结构联系了起来,使移动机器人能够在纯几何的基础上对其环境产生更高层次的理解,并允许其拥有更为广泛的功能和自主性。
捕获底层场景几何和外观信息的一般地图的表示形式。
神经绘制模型:从位未知的角度进行场景重建;完成的工作:生成+表示
使用二维和三维模型场景提供和开发的场景先验知识,在已知场景中检索移动机器人的绝对位姿。
基于显示地图的定位
通过一个带有地理标记的图像数据库来表示场景
步骤:图像检索(查找在地图中位置)、位姿回归(获得查询图像相对于参考图像的相对位姿)
基于隐式地图的定位
从单个图像获取全局位姿
指恢复二维图像相对于三维场景节点的相机位姿。
对预先构建的三维地图恢复三维点(即激光雷达点云)的全局位姿
步骤:扫描/查询、减小误差
同时跟踪自运动并估计周围环境的结构,构成了一个同时定位与建图(SLAM)系统。
满足约束,确保局部区域一致性
解决累计误差
求解器举例:LM算法
关键帧:指检测关键帧(与已有关键帧相似度检测),可使SLAM更为高效
回环检测:基于词袋(BoW)来存储和使用人工制作的探测器的视觉特征来实现,使SLAM后端减少错误
为了保证安全性和可解释性,需要对实际情况中的不确定性进行分析。
贝叶斯模型的不确定性大致分为任意不确定性和认知不确定性:任意不确定性反映了观测噪声,如传感器测量或运动的噪声;认知不确定性用于捕捉模型的不确定性;
捕捉的目的有两种:运动跟踪(减小误差)和场景理解(有助于提高SLAM系统可信度)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。