赞
踩
立体视觉:立体视觉是计算机视觉领域的一个重要课题,它的目的在于重构场景的三维几何信息.其应用包括移动机器人的自主导航系统,航空及遥感测量,工业自动化系统等。
双目立体视觉(Binocular Stereo Vision)是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。
双目匹配其实求的是视差disparity, 视差和深度有一个计算公式:
disp = focal_length * base_line / depth
其中disp为视差, focal_length是焦距, base_line是双目之间的距离, depth是深度
双目相机标定及矫正: link
立体匹配算法名称 | 算法特性 |
---|---|
基于动态规划的立体匹配算法 | 时间复杂度比较低,匹配精度不高,容易出现条纹现象 |
基于图割法的立体匹配算法 | 能解决动态规划出现的条纹现象,边缘匹配处理比较好,时间复杂度比较高 |
基于置信度传播的立体匹配算法 | 收敛性比较差,时间复杂度比较高,对于低纹理问题处理的比较好 |
基于区域的立体匹配算法 | 时间复杂度比较低,算法受环境影响比较大,弱纹理问题不能有效解决 |
基于特征的立体匹配算法 | 时间复杂度比较低,对于几何特征明显的图像匹配效果比较好 |
在图像中有明显特征的点、线或者特定的区域,它是立体匹配算法的最小匹配单元;
匹配基元的选择,要考虑基元的稳定性、敏感性、可行性和能否表示图像。
约束准则具有缩小匹配搜索的范围,降低误匹配,同时提高匹配效率的功能。
注:真正用来匹配的图一般都是矫正好的图,即极线会映射一条水平的直接,匹配点在一条水平线上,即坐标y相同
1.SceneFlow(Synthetic):
Synthetic data
39, 000 training/ 2, 000 testing
960*540 pixels
2.KITTI 2012/2015:
Autonomous driving data (LIDAR)
200 training / 200 testing (2012)
1260*370 pixels
C(x, y, z) = L(x + d, y) − R(x, y)
L:双目立体视觉系统中的左视图,
R:双目立体视觉系统中的右视图,
x和 y 分别表示像素点的坐标值,
d像素点的视差值。
匹配代价计算的目的是计算参考图像上的每一个待匹配像素与目标图上每一个可能的视差范围内的候选像素之间的相关性,最后得到一个大小为W×H×D (D为视差搜索范围)的代价矩阵C(也叫视差空间图Disparity Space Image,DSI),代价计算算法是双目匹配的核心之一,不同的计算方式有不同的优势,有时候可以结合多种计算方法。
比如Census保留周边像素空间信息,对光照变化有一定鲁棒性,具有灰度不变的特性,AD边缘明显清晰,纹理重复结构效果还可以,不适用于噪声多的情况,低纹理区域效果不好,对颜色值敏感,AD和Census结构可以取一个折中。
常用的相关性计算方式有灰度绝对值差(AD,Absolute Differences)、灰度绝对值差之和(SAD,Sum of Absolute Differences)、归一化相关系数(NCC,Normalized Cross-correlation)、互信息(MI,Mutual Information)、Census变换(CT,Census Transform)法、Rank变换(RT, Rank Transform等方法来计算两个像素的匹配代价。
匹配代价 | 公式 | 说明 |
---|---|---|
绝对差值和SAD | ||
截断绝对差值和STAD | ||
差值平方和SSD | ||
归一化互关系NCC | 用于归一化待匹配目标之间的相关程度 | |
census | 计算左右图的二进制序列的海明距离,也可以用异或操作计算。seq[I§]函数根据p点像素值和p的支持窗口内像素值生成一个二进制序列。即根据p点周围像素和p点关系是生成,如大于p点则为1,小于为0,左右图都生成这样的序列,然后计算两个序列的汉明距离作为代价,这种方法充分考虑了图像局部相关的特性,而不是直接使用灰度值做差,具有抗光影畸变的作用,效率高、稳定性强 | |
rank变换函数 | 对图像噪声和立体图像的亮度差异不那么敏感,且计算快,实时性好。 |
常用的census: 计算每个待匹配像素和周围像素的大小关系,当左图某像素和右图对应像素与周围像素大小关系一致时(比如都大于周围某像素),则diff + 1, 否则diff不变, 其实diff记录的是汉明距离。
AD也经常和census合用
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。