当前位置:   article > 正文

【文献阅读】基于多传感器融合的水下SLAM系统_多波束声纳 slam

多波束声纳 slam

1.文献信息

本文是一篇水下SLAM文献的阅读笔记,论文信息如下:

  • 题目:《SVIn2: A multi-sensor fusion-based underwater SLAM system》
  • 作者:Sharmin Rahman, Alberto Quattrini Li and Ioannis Rekleitis
  • 发表期刊:IEEE Journal of Robotics Research (IJRR)
  • 发表年份:2022年
  • DOI:10.1177/02783649221110259

本文扩展了OKVIS,使其在非线性优化框架下容纳来自机械扫描剖面声呐的声学距离数据。

  • 这种拓展提高了轨迹估计的性能,尤其是在可见度变化的水下环境,因为DPP sonar提供了关于障碍物位置的鲁棒信息,且具有很高的精度。
  • 为了克服较长轨迹中的漂移,在优化过程中引入水压传感器得到的深度测量值,使用词包(BoW)框架的回路闭合和重定位功能,以及使用水深测量构建更鲁棒的初始化过程并细化尺度。

2.论文摘要

摘要原文以及对照的翻译笔记如下:

This paper presents SVIn2, a novel tightly-coupled keyframe-based Simultaneous Localization and Mapping (SLAM) system, which fuses Scanning Profiling Sonar, Visual, Inertial, and water-pressure information in a non-linear optimization framework for small and large scale challenging underwater environments. The developed real-time system features robust initialization, loop-closing, and relocalization capabilities, which make the system reliable in the presence of haze, blurriness, low light, and lighting variations, typically observed in underwater scenarios.
本文介绍了一种新的基于关键帧的紧耦合SLAM系统SVIn2,它在一个非线性优化框架中融合了扫描轮廓声呐(Scanning Profiling Sonar)、视觉、惯性和水压信息,适用于小型和大型挑战性水下环境。所开发的实时系统具有鲁棒初始化、闭环和重定位功能,这使得系统在水下场景中常见的雾霾、模糊、弱光和变化光照等情况下也能可靠运行。

Over the last decade, Visual-Inertial Odometry and SLAM systems have shown excellent performance for mobile robots in indoor and outdoor environments, but often fail underwater due to the inherent difficulties in such environments. Our approach combats the weaknesses of previous approaches by utilizing additional sensors and exploiting their complementary characteristics.
在过去的十年中,视觉惯性里程计和SLAM系统在室内和室外环境中为移动机器人展示了优异的性能,但由于水下环境固有的困难,这些系统往往在水下会失效。我们的方法利用了更多的传感器,并利用了它们的互补特性,从而克服了以往方法的弱点。

In particular, we use (1) acoustic range information for improved reconstruction and localization, thanks to the reliable distance measurement; (2) depth information from water-pressure sensor for robust initialization, refining the scale, and assisting to limit the drift in the tightly-coupled integration.
具体而言,我们利用:(1)声学测距信息,通过可靠的距离测量来改进地图重建和定位;(2)来自水压传感器的深度信息,用于鲁棒的初始化、尺度细化,并帮助限制紧耦合集成中的漂移。

The developed software—made open source—has been successfully used to test and validate the proposed system in both benchmark datasets and numerous real world underwater scenarios, including datasets collected with a custom-made underwater sensor suite and an autonomous underwater vehicle Aqua2. SVIn2 demonstrated outstanding performance in terms of accuracy and robustness on those datasets and enabled other robotic tasks, for example, planning for underwater robots in presence of obstacles.
所开发的开源代码已成功用于在基准数据集和众多真实水下场景中测试所提出的系统,包括使用定制的水下传感器套件和AUV收集的数据集Aqua2。SVIn2 在这些数据集上的准确性和鲁棒性方面表现出色,并支持其他机器人任务,比如在有障碍的情况下规划水下机器人。

3.论文引言

We propose a Simultaneous Localization and Mapping (SLAM) system, which exploits the complementary characteristics of cameras, Inertial Measurement Unit (IMU), sonar, and pressure sensor for robust autonomy of under- water vehicles in challenging and highly unstructured underwater environments.
我们提出了一种同步定位与建图(SLAM)系统,该系统利用相机、惯性测量单元IMU、声呐和压力传感器的互补特性,实现水下航行器在极具挑战性和高度非结构化的水下环境中的鲁棒自主性。

Autonomous Underwater Vehicles (AUVs) present unique opportunities to automate the exploration and mapping of underwater environments–such as caves, bridges, dams, oil rigs, and shipwrecks–which are extremely important tasks for the economy, conservation, and scientific discoveries. Currently, the autonomy of underwater vehicles is hindered by a number of challenges. As localization infrastructures (e.g., GPS) present on land are not available underwater, one of the challenges relates to state estimation. In recent years, many visual odometry and SLAM systems [1]–[6] have been developed using monocular, stereo, or multi-camera rigs mostly for indoor and outdoor environments that can be classified as indirect (feature- based), direct, or semi-direct methods. Vision is often combined with inertial measurements for improved accuracy and robustness in pose estimation, termed Visual- Inertial Odometry (VIO) or Visual-Inertial SLAM (VI- SLAM) [7]–[11]. As shown in previous studies (Joshi et al., 2019; Quattrini Li, et al., 2016a), the available visual or visual-inertial state estimation packages produce inaccurate trajectories or even complete tracking loss in underwater due to the inherent challenges in such environments. In particular, vision-based state estimation underwater has many open challenges, including visibility, light and color attenuation [12]-[14] or complete absence of natural light, floating particulates, blurriness, varying illumination, and lack of features [15] – for example, see Figure 1, leaving an interesting gap to be investigated in the current state-of-the-art.
自主水下航行器AUV为水下环境(如洞穴、桥梁、水坝、石油钻井平台和沉船等)的自动勘探与测绘提供了独特的机会。目前水下航行器的自主性受到一系列的阻碍。由于陆地上的定位基础设施(如全球定位系统GPS)在水下无法使用,因此状态估计问题是水下面临的挑战之一。近年来,许多视觉里程计和SLAM系统都利用单目、双目立体或多相机设备开发,主要用于室内和室外环境,可分为间接(基于特征)、直接或半直接方法。视觉通常与惯性测量相结合,以提高姿态估计的准确性和鲁棒性,称为视觉-惯性里程计(VIO)或者视觉-惯性SLAM(VI-SLAM)。正如之前的研究所示,由于水下环境固有的挑战,现有的视觉或视觉-惯性状态估计包在水下会产生不准确的轨迹,甚至完全失去跟踪能力。特别是,基于视觉的水下状态估计面临许多挑战,包括能见度、光线和颜色衰减或完全没有自然光、漂浮微粒、模糊不清、光照不一以及缺乏特征——例如图1,这就给目前的先进技术留下了一个值得研究的空白。

图1 水下洞穴

In this work, we present a novel SLAM system, SVIn2, targeted for underwater environments and easily adapt- ableforotherdomains—forexample,indoorand outdoor—by choosing a subset of different sensor configurations including: visual (monocular, stereo camera, or multi-camera), inertial (linear accelerations and angular velocities), Digital Pipe Profiling Sonar (DPP- sonar) [16] – that is, a mechanical scanning profiling sonar–and/or water-depth data. This makes our system versatile and applicable onboard of different sensor suites and underwater vehicles. We augmented the state-of-the-art visual-inertial state estimation package OKVIS (Leutenegger et al., 2015) to accommodate acoustic range data from a DPP-sonar in a tightly-coupled non-linear optimization-based framework. This augmentation improves the trajectory estimate, especially when there is varying visibility underwater, as the DPP-sonar provides robust information about the presence of obstacles with accurate scale. However, in long trajectories, drifts could accumulate resulting in an erroneous trajectory. To account for drifts, we introduced depth measurements from a water-pressure sensor in the optimization process, loop-closing and relocalization capabilities using the bag-of-words (BoW) framework, and a more robust initialization process to refine scale using water-depth measurements. These additions enable the proposed approach to robustly and accurately estimate the robot’s trajectory, where other approaches have shown incorrect trajectories or complete loss of localization.
在这项工作中,我们提出了一种新型 SLAM 系统 SVIn2,它以水下环境为目标,并通过选择不同传感器的子集(包括:视觉(单眼、立体摄像机或多摄像机)、惯性(线性加速度和脉动速度)、机械扫描剖面声纳(DPP- 声纳))和/或水深数据,可轻松适应其他领域(例如室内和室外),这使得我们的系统具有多功能性,可用于不同的传感器套件和水下航行器。我们对最先进的视觉-惯性状态估计软件包OKVIS(2015)进行了扩充,以便在一个紧耦合的基于非线性优化的框架内,容纳来自DPP声纳的声学测距数据。由于DPP声纳能以精确的尺度提供有关障碍物存在的可靠信息,因此这种增强功能改善了轨迹估计,尤其是在水下能见度不断变化的情况下。不过,在长轨迹中,漂移可能会累积,从而导致错误的轨迹。为了应对漂移问题,我们在优化过程中引入了水压传感器的深度测量、使用词袋(BoW)框架的闭环和重定位功能,以及更鲁棒的初始化过程,以利用水深测量来细化尺度。这些新增功能使所提出的方法能够鲁棒准确地估计机器人的轨迹,而其他方法则会得到不正确的轨迹或完全丧失定位功能。

为了验证我们提出的方法:

  • 首先,我们在 EuRoC 微型飞行器 (MAV) 公共数据集上与其他最先进的系统进行了比较,评估了所提出的闭环方法的性能,同时在我们的系统中禁用了 DPP 声纳和水压测量的融合。
  • 其次,我们在不同条件下获得的多个水下数据集上测试了所提出的完整系统。更具体来说,水下数据包括视觉、惯性、水深和声学距离测量,这些数据是使用定制的传感器套件从不同地点收集的;此外,还利用Aqua2 水下航行器收集了数据,包括视觉、惯性和水深测量。水下数据集上的结果表明,其他最先进的系统会失去跟踪能力和/或无法保持一致的尺度,而我们提出的方法则能保持正确的尺度,不会出现偏差。在缺乏水下真值轨迹的情况下,我们使用 COLMAP——一个开源的运动结构(SfM)库–作为基准,将所提算法 SVIn2(禁用了声纳和压力传感器)的性能与其他最先进的视觉惯性里程计/SLAM 软件包进行比较。
  • 第三,我们进行了基于三维地标的验证,以显示 SVIn2 使用靶标的估算精度(Fiala,2005 年)。
  • 第四,我们使用名为 AQUALOC 的最新公开水下数据集测试了我们提出的系统。
  • 第五,我们进行了一项消融研究,以观察每个传感器对定位精度的贡献。

本文的贡献在于通过更完整的系统描述和更多的实验分析,包括消融研究、基于landmark的验证、与 SfM 软件包的比较以及在公共水下数据集上的实验,大大扩展了我们在先前工作中介绍的初步结果[20],代码已开源:SVIn2

4.相关工作

几十年来,研究人员一直在研究机器人状态估计问题。在这里,我们重点介绍那些专门为水下环境量身定制的以及最新的视觉惯性状态估计方法。为了获得更完整的概述,建议读者查看最近的研究 [21], [22](Past, present and future of SLAM, TRO 2016; and Visual-inertial navigation: a concise review, ICRA 2019).

4.1 视觉-惯性状态估计

视觉通常与 IMU 结合使用,因为它们具有互补的特性:摄像头是捕捉外部世界的外部感知传感器,而 IMU 则提供有关自身运动的信息。此外,将视觉与 IMU 相结合可以解决基于单目视觉的 SLAM 中的尺度问题,因为它可以用来估计摄像机帧与帧之间的运动。重力也可以估算,这使得两个旋转自由度(DoF)–即绝对俯仰和滚动–可以被观测到,这是将视觉与 IMU 相结合的另一个优势。

下面,我们将重点介绍一些最先进的视觉惯性 VIO 和 SLAM 方法。

一类状态估计方法基于卡尔曼滤波器。 这方面的例子包括:多状态约束卡尔曼滤波器(Multi-State Constraint Kalman Filter,MSCKF) [23] 及其双目扩展版本 [24],其已被应用于水下领域 [25]; ROVIO [26];以及 REBiVO [27]。

另一类方法是基于图优化,将问题表述为图优化问题,优化传感器状态–通常是在滑动窗口内。基于特征的视觉惯性系统,如OKVIS [7]、视觉惯性ORB-SLAM [9] 和 ORB-SLAM3[28],都有一个包括IMU误差项和重投影误差的优化函数。前端跟踪机制会维护一个有界的关键帧窗口,并将窗口外不再使用的状态和特征边缘化,以限制优化所需的计算量。VINS-Mono [10] 采用类似的方法,为每幅图像保留最少数量的特征。已有特征由 Kanade-Lucas-Tomasi(KLT)稀疏光流算法在局部窗口中跟踪。虽然 KLT 稀疏特征允许 VINS-Mono 在低成本嵌入式系统上实时运行,但这种方法往往会导致在具有挑战性的环境中跟踪失败,例如能见度低的水下环境。此外,为了进行回环检测,还需要计算关键帧的额外特征及其描述符。 Delmerico 和 Scaramuzza(2018 年)[29] 对不同方法进行了全面比较,特别是监测计算资源使用情况。Shkurti 等人(2011a)[30] 和 Quattrini Li 等人(2016b)[31] 对水下领域的特征进行了性能评估,重点关注水下沉船环境。

4.2 为什么将视觉与声学传感器结合用于水下环境?

基于视觉的水下导航因其高度非结构化的特性而成为一项艰巨的任务。与此同时,摄像头是最便宜、体积小、重量轻、能效高的传感器之一,能提供丰富多样的周围环境信息。在我们最近的工作 [32] 中,我们比较了开源视觉惯性系统在水下数据集中的性能。结果表明,由于光和颜色衰减、模糊和漂浮微粒,直接方法和基于特征的方法的 VO/VIO 都面临挑战。具体来说,对于直接方法,由于光照变化频繁,亮度恒定假设经常不满足。对于间接方法,低对比度和微粒会导致虚假特征。如果没有航迹推算的帮助,纯 VO 在没有运动预测的情况下往往会丢失轨迹,因为很难在后续帧中可靠地跟踪特征。与视觉相反,声纳测距不受浑浊度、光和颜色衰减的影响,因此可以与相机互补。DPP 声纳可提供具有比例尺的特征,进而帮助定位,从而提高三维重建的质量。

要实现鲁棒的跟踪,视觉惯性状态估计系统需要适当的初始化。带有IMU的ORB-SLAM [9] 通过首先运行单目SLAM来观察姿态,然后估计IMU偏差来执行初始化。VINS-Mono 采用松耦合传感器融合方法,使单目视觉与惯性测量对齐,从而实现状态估计器的初始化。除了良好的初始化之外,为了减少基于滑动窗口和边际化的状态估计中的漂移,回路闭环–即识别之前看到过的地方的能力–也是一个重要的方案。

目前,ORB-SLAM [6] 及其与 IMU 的扩展 [9] 是最可靠的基于特征的 SLAM 系统之一,该系统使用词袋(BoW)方法进行闭环和重定位。VINS-Mono 也采用了相同的技术。另一种基于 BoW 的方法对一组相关区域进行聚类,在具有相似性的区域(如珊瑚礁)显示出对光照变化的鲁棒性 [33]。考虑到 OKVIS 在添加新传感器方面的模块性以及在水下环境追踪方面的鲁棒性,我们决定对 OKVIS 进行扩展,使其包括 DPP 声纳数据、水压测量、闭环功能以及使用水深进行两步比例细化的更鲁棒初始化,以专门针对水下环境。

4.3 基于声学传感器的水下导航

Paull 等人 [] 综述了 AUV 导航和定位的常用传感器和一般方法。最近,Maurelli 等人(2021 年)讨论了 AUV 的主动和被动定位技术。声纳(如成像声纳、扫描剖面声纳和多波束声纳)和/或照相机被用来约束来自航迹推算系统(即 IMU 或多普勒测速仪 (DVL))的航位漂移。

大多数水下导航算法(Johannsson 等人,2010 年;Lee 等人,2005 年;Leonard 和 Durrant-Whyte,2012 年;Rigby 等人,2006 年;Snyder,2010 年)都是基于声学传感器,如 DVL 和超短基线(USBL)。由 Stone Aerospace 公司设计的 DEPTHX(DEep Phreatic THermal eXplorer)(Stone,2007 年)配备了许多传感器,用于绘制一个充满水的竖井(Gary 等人,2008 年),包括一个 IMU、两个深度传感器、一个 DVL 和 54 个窄单波束回声测深仪。太阳鱼(Richmond 等人,2018 年)是一种水下 SLAM 系统,使用多波束声纳、基于光纤陀螺仪 (FOG) IMU、DVL 和压力深度传感器的水下测距系统,已被开发用于自主水下洞穴探测。

许多研究都试图在不需要昂贵的 DVL 或惯性导航系统 (INS) 的情况下降低水下机器人的成本。Williams 等人(2000 年)提出了一种基于 EKF 的水下机器人 SLAM,该机器人配有一个机械扫描声纳,用于绘制水平面地图。White 等人(2010 年)介绍了在古代水下蓄水池中使用机械扫描声纳进行绘图和定位的现场实验,该声纳也定位在水平面上,并使用了粒子滤波器。Folkesson 等人(2007 年)使用了 blazed array 前视声纳–由两个声纳头组成,一个是垂直声纳头,另一个是水平声纳头,为两个声纳头探测到的特征提供三维位置–利用成本相对较低的自动潜航器进行实时特征跟踪,而不需要 DVL 和昂贵的惯性导航系统(INS)。在后一项工作的基础上,Fallon 等人(2013 年)将该系统扩展到了特征再获取。Mallios 等人(2016 年)使用水平安装的扫描声纳作为主要传感器,首次展示了自动潜航器在洞穴内进行有限穿透的成果。

Westman 等人(2018 年)和 Ozog 等人(2015 年)分别提出了基于成像声纳的 SLAM 和 3D 摄影马赛克算法。Teixeira 等人(2019 年)提出了利用多波束声纳进行水下场景密集重建的方法。McConnell 等人(2020 年)融合了两个多波束声纳,一个水平放置,一个垂直放置,以解决仰角不确定的问题。同样,Joe 等人(2021 年)提出了一种由多波束声纳和剖面声纳组成的测绘传感器配置。 利用前者覆盖的较大视场和后者的窄波束。窄波束。

Carreras 等人(2003 年)提出了一种基于地标的导航方法,是利用摄像机进行水下定位的早期尝试。有人研究了使用下视立体摄像机的 SLAM 系统(Eustice 等人,2005 年,2006 年),以绘制泰坦尼克号的地图。Corke 等人(2007 年)比较了基于声学传感器节点网络和基于视觉的水下定位方法,前者能够估算彼此间的距离,后者则显示了在某些情况下在水下使用视觉方法的可行性。有人提出了使用摄像头和成像声纳的导航和规划算法,用于悬浮式自主水下航行器(HAUV)的船体检查应用(Hong 等人,2019 年;Hover 等人,2012 年)。同一小组还为相同应用开发了纯视觉 SLAM 系统(Kim 和 Eustice,2013 年;Ozog 和 Eustice,2014 年;Ozog 等人,2016 年)。最近的工作是将立体相机和 DVL 融合用于水下 SLAM(Xu 等人,2021 年)。

我们的工作方向是减少水下 SLAM 所需的传感器,而不像上述一些工作那样需要 DVL 或昂贵的 INS。我们考虑了一种不同的传感器配置,将机械扫描声纳置于与图像平面平行的垂直面上,以便绘制洞穴结构图。

5.References

  1. Davison AJ, Reid ID, Molton ND, et al. (2007) Monoslam: real-time single camera slam. IEEE Transactions on Pattern Analysis and Machine Intelligence 29(6): 1052–1067.
  2. Engel J, Sch¨ops Tand Cremers D (2014) LSD-SLAM: Large-scale direct monocular SLAM. Berlin, Germany: Springer, 834–849.European Conference on Computer Vision (ECCV)
  3. Engel J, Koltun V and Cremers D (2018) Direct sparse odometry. IEEE Transactions on Pattern Analysis and Machine Intel ligence 40(3): 611–625.
  4. Forster C, Zhang Z, Gassner M, et al. (2017b) SVO: semidirect visual odometry for monocular and multicamera systems. IEEE Transactions on Robotics 33(2): 249–265.
  5. Klein G and Murray D (2007) Parallel tracking and mapping for small AR workspaces. In: IEEE and ACM Int. Symp. on Mixed and Augmented Reality. Piscataway, NJ: IEEE, 225–234.
  6. Mur-Artal R, Montiel JMM and Tardós JD (2015) ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics 31(5): 1147–1163.
  7. Leutenegger S, Lynen S, Bosse M, et al. (2015) Keyframe-based visual-inertial odometry using nonlinear optimization. The International Journal of Robotics Research (IJRR) 34(3): 314–334.
  8. Mourikis AI and Roumeliotis SI (2007) A multi-state constraint Kalman filter for vision-aided inertial navigation. In: IEEE International Conference on Robotics and Automation (ICRA). Piscataway, NJ: IEEE, 3565–3572.
  9. Mur-Artal R and Tardós JD (2017) Visual-inertial monocular SLAM with map reuse. IEEE Robotics and Automation Letters 2(2): 796–803.
  10. Qin T, Li P and Shen S (2018) VINS-Mono: a robust and versatile monocular visual-inertial state estimator. IEEE Transactions on Robotics 34(4): 1004–1020.
  11. Sun K, Mohta K, Pfrommer B, et al. (2018) Robust stereo visual inertial odometry for fast autonomous flight. IEEE Robotics and Automation Letters 3(2): 965–972.
  12. Fabbri C, Islam MJ and Sattar J (2018) Enhancing underwater imagery using generative adversarial networks. In: IEEE International Conference on Robotics and Automation (ICRA). Piscataway, NJ: IEEE, 7159–7165.
  13. Roznere M and Quattrini Li A (2019) Real-time model-based image color correction for underwater robots. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway, NJ: IEEE, 7191–7196.
  14. Skaff S, Clark J and Rekleitis I (2008) Estimating surface reflectance spectra for underwater color vision. In: British Machine Vision Conference (BMVC). Leeds, UK: British Machine Vision Association, 1015–1024.
  15. Oliver K, Hou W and Wang S (2010) Image feature detection and matching in underwater conditions. In: Ocean Sensing and Monitoring II. Washington, DC: International Society for Optics and Photonics, volume 7678, 76780N.
  16. Imagenex Technology Corp (2022) 831L Digital pipe profiling sonar. Available at: https://imagenex.com/products/831l-pipe-profiling
  17. Burri M, Nikolic J, Gohl P, et al. (2016) The EuRoC micro aerial vehicle datasets. The International Journal of Robotics Research (IJRR) 35(10): 1157–1163.
  18. Rahman S, Karapetyan N, Quattrini Li A, et al. (2018a) A modular sensor suite for underwater reconstruction. In: MTS/IEEE OCEANS - Charleston. Piscataway, NJ: IEEE, 1–6.
  19. Dudek G, Jenkin M, Prahacs C, et al. (2005) A visually guided swimming robot. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway, NJ: IEEE, 1749–1754.
  20. Rahman S, Quattrini Li A and Rekleitis I (2019) SVIn2: An Underwater SLAM System using Sonar, Visual, Inertial, and Depth Sensor. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Piscataway, NJ: IEEE.
  21. Cadena C, Carlone L, Carrillo H, et al. (2016) Past, present, and future of simultaneous localization and mapping: toward the robust-perception age. IEEE Transactions on Robotics 32(6): 1309–1332.
  22. Huang G (2019) Visual-inertial navigation: a concise review. In: IEEE International Conference on Robotics and Automation (ICRA). Piscataway, NJ: IEEE, 9572–9582.
  23. Mourikis AI and Roumeliotis SI (2007) A multi-state constraint Kalman filter for vision-aided inertial navigation. In: IEEE International Conference on Robotics and Automation (ICRA). Piscataway, NJ: IEEE, 3565–3572.
  24. Sun K, Mohta K, Pfrommer B, et al. (2018) Robust stereo visual inertial odometry for fast autonomous flight. IEEE Robotics and Automation Letters 3(2): 965–972.
  25. Shkurti F, Rekleitis I, Scaccia M, et al. (2011b) State estimation of an underwater robot using visual and inertial information. In: IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). Piscataway, NJ: IEEE, 5054–5060.
  26. Bloesch M, Burri M, Omari S, et al. (2017) Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback. The International Journal of Robotics Research (IJRR) 36: 1053–1072.
  27. Tarrio JJ and Pedre S (2017) Realtime edge based visual inertial odometry for MAV teleoperation in indoor environments. Journal of Intelligent & Robotic Systems 90: 235–252.
  28. Campos C, Elvira R, Rodr´ıguez JJG, et al. (2021) ORB-SLAM3: an accurate open-source library for visual, visual-inertial and multi-map SLAM. IEEE Transactions on Robotics 37: 1874–1890.
  29. Delmerico J and Scaramuzza D (2018) A benchmark comparison of monocular visual-inertial odometry algorithms for flying robots. In: IEEE International Conference on Robotics and Automation (ICRA). Piscataway, NJ: IEEE.
  30. Shkurti F, Rekleitis I and Dudek G (2011a) Feature tracking evaluation for pose estimation in underwater environments. In: Canadian Conference on Computer and Robot Vision (CRV). St. John, Canada: CRV, 160–167.
  31. Quattrini Li A, Coskun A, Doherty SM, et al. (2016b) Vision-based shipwreck mapping: on evaluating features quality and open source state estimation packages. In: MTS/IEEE OCEANS - Monterey. Piscataway, NJ: IEEE, 1–10.
  32. Joshi B, Rahman S, Kalaitzakis M, et al. (2019) Experimental comparison of open source visual-inertial-based state estimation algorithms in the underwater domain. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 7221–7227.
  33. Maldonado-Ram´ırez A, Torres-M´endez LA and Castel´an M (2016) A bag of relevant regions for visual place recognition in challenging environments. In: International Conference on Pattern Recognition (ICPR). Piscataway, NJ:IEEE, 1358–1363.
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/378980
推荐阅读
  

闽ICP备14008679号