当前位置:   article > 正文

由粗到精学习LVI-SAM基础:多传感器内外参标定原理

深度学习 传感器外参

作者丨Alvin一路向东@知乎

来源丨https://zhuanlan.zhihu.com/p/462759422

编辑丨3D视觉工坊

一、最小二乘法

1.1 线性最小二乘

遇到线性问题通常采用最小二乘法解决,遇到非线性问题可以采用非线性优化方法解决。

85982145e7f609f0849c736fb3608f39.png

通过程序求解线性方程时,为了避免求逆的操作(运算量大),通常都会采用矩阵分解的办法,不同的分解方式适用于不同的求解需求,具体可以参考Eigen库的官方推荐表:

e7ac6a3ec5bc5ace18fbc1adba457131.png

1.2 非线性最小二乘

可以参考《视觉SLAM十四讲》第六章或这篇文章:

重读《视觉SLAM十四讲》ch6非线性优化(https://zhuanlan.zhihu.com/p/369259801)

二、IMU内参标定

2.1 IMU误差模型

886c800d54e0bb73e8e3f5f061e37846.png

加速度计与陀螺仪的完整误差模型用数学公式可以表示为:

9d35ae324b23c64a58b89a333ee5addd.png

定义IF为IMU参考坐标系,AD为非正交加速度计坐标系,GF为非正交陀螺仪坐标系,AOF为正交加速度计坐标系,GOF为正交陀螺仪坐标系。标定过程中认为AOF与IF的x轴重合,且AOF的y轴在IF的x-y平面内,因此变换矩阵定义如下:

2d29705f2bcb0f1ffabe6e971cf255ac.png

变换矩阵Tg定义如下:

dbf00e73faf0096065ec0085bfa340ac.png

刻度因数矩阵 Ka和Kg定义如下:

67792d9d705d0e13976e161b60f92d23.png

a4a1c4602ab28c7f4e91507345f002b6.png

所以标定加速度计需要标定以下参数:

37f85a4c361a0a0dc192a90a912ed10a.png

标定陀螺仪需要标定以下参数:

217b1e7ea8f7d27e0e3a49a746395c3c.png

带入上面这些变量,原式简化为:

4f6e3c18e6453e1bdf41de0838b8dd9b.png

2.2 加速度计标定

原理:以多个角度静置加速度计,加速度计的测量值理论上都应该为当地的重力加速度,以此建立约束关系。

采用非线性优化的方式标定,代价函数为:

c6b78e452891791f6eb8efff1795b747.png

步骤:

2fe412c0bd6e35d24364a5297779ee8d.png2.3 陀螺仪标定

原理:与上述标定加速度计的过程类似,旋转IMU前后测得的加速度都应该只有重力加速度,不过在标定陀螺仪过程中,会根据陀螺仪测量的角速度进行积分得到旋转矩阵,理论上旋转前的加速度测量值左乘旋转矩阵应该与旋转后的加速度测量值应当完全重合,以此建立约束。

代价函数:

2d7c6c9e62e89fcdbdd1aaad3b9498de.png

(每次旋转IMU时应当有比较明显的位姿变化,尽可能让IMU每个方向都得到测量)

三、相机与IMU的外参标定

3.1 相机与IMU的旋转矩阵外参预标定

1358c7a7376a8ca6db9d2fb6eb35c7dc.png

3.2 相机与IMU松耦合初始化

相机存在尺度不确定性,IMU的零偏会产生偏移,因此在外参标定以后,还需要对这些参数进行标定,对SLAM过程初始化并让相机与IMU的测量对齐。

松耦合的方法(参考VINS-Mono)是利用基于相机的位姿估计得到位移与速度作为观测值,用IMU预积分得到的位置与速度作为理论值,建立线性最小二乘问题求解得出需要标定的参数,具体公式如下:

1、通过基于相机的位姿变换表示出位移与速度:

242d21ca17d03f320885d1c5150eb0b6.png

2、与IMU预积分得到的位移与速度的关系为:

775392922490c591ecb84ba76c55f9fb.png

3、代价函数:

eedcf7c05b08e83239f746e4e3806ee6.png

这个问题是线性的,可以使用线性的矩阵求解,也可以采用非线性优化解决。

3.3 相机与IMU紧耦合外参标定

在SLAM正常运行的过程中,后端优化往往是一个大规模的非线性优化问题,因此可以把前文提到的各种外参内参加入进去,对这些参数进行更进一步的优化和纠正:

e107dbfeb1512a16f150e098f45f849e.png

四、多传感器外参标定

4.1 外参初值的标定

平移外参初值:手动测量;

旋转外参初值:需要进一步求解。

4.2 激光雷达与IMU的外参标定

旋转矩阵标定

和相机与IMU的外参标定思想相同,激光雷达与IMU分别求解旋转矩阵,结合外参建立线性最小二乘问题求解得到旋转外参: outside_default.png , 之后再类似的方法以激光里程计表示出位移与速度,标定IMU其他参数。

松耦合外参标定

应当与相机和IMU的外参标定差不多,略。

紧耦合外参标定

一样可以在后端优化中进行标定,也可以用其他类似的非线性优化方法,比如下面的基于B样条曲线的方法:

97fb04e7d2b976964fd0ea511e21cbc0.png 95c0c30cb8a5cfa0ad5e1bb9851314a4.png

4.3 激光雷达与相机的外参标定

89bee8e04f4ae5e14cda42de58500860.png

4.4 激光雷达与GPS的外参标定

与其他传感器不同,GPS不仅可以提供运动增量(帧间位姿变换) ,还可以提供绝对的位置约束,因此激光雷达与GPS的外参标定不仅可以优化两个传感器之间的外参,还可以优化传感器的当前位置。

75c42cb5104b2c99c6a6226cb573acfb.png cfccec1d8a012c39f6942b702a4293fd.png

本文仅做学术分享,如有侵权,请联系删文。

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

14.ROS2从入门到精通:理论与实战

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

4603d12b6e1db02a2a453cc6070428b9.png

▲长按加微信群或投稿

13e576c15c5fbd4ed695c7cc20abb06c.png

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定激光/视觉SLAM自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

b3ff4a5ab8bc7f135fa11c7bc7c45f2e.png

 圈里有高质量教程资料、答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/116654
推荐阅读
相关标签
  

闽ICP备14008679号