当前位置:   article > 正文

深度估计_深度估计中a1、a2、a3

深度估计中a1、a2、a3

一.迁移学习[论文][Keras][监督]

1).网络:

图1-1.网络框架。带跳跃连接的编解码器结构。编码器采用在
ImageNet上预训练过的DenseNet-169,解码器由卷积和上采样组成。

2).损失函数

  1. 每个像素的预测深度与实际深度的L1损失:Ldepth(y,y^)=1npn|ypy^p|。由于该损失会随深度值的变大而变大,作者使用原始深度值yorig的导数y=m/yorig作为深度值,m是最大深度值。
  2. 图像梯度与深度图梯度的L1损失:Lgrad(y,y^)=1npn|gx(yp,y^p)|+|gy(yp,y^p)|
  3. 图像与深度图的SSIM。

二.对偶网络[论文][TF][无监督]

无监督的深度估计一般利用基于对极几何的图像重建损失训练CNNs产生视差图。

1).网络框架:

图2-1. 6项损失版的对偶网络。

 对偶网络来自Godard,分别输出左右视差图。使用空间变换网络提出的双线性采样方法用视差图重建图像:用左视差图和右图像重建左图像;用右视差图和左图像重建右图像。

2).训练,6项损失(3组):

  1. 外观匹配损失:重建图像与原图的L1损失和SSIM。
  2. 视差平滑损失:视差图的平滑损失。
  3. 左右一致性损失:左右视差图的视差一致性。

网络会输出4个尺度的视差图,对每个尺度都计算这样的损失。这些损失的定义也都来自Godard


三.序数回归[论文][Caffe][监督][Robust Vision Challange 2018第一名]

1).主要工作:序数回归和多尺度特征。

2).序数回归:

  1. 把深度估计建模成回归问题然后用最小化均方误差训练网络。这种方法收敛慢且局部效果不好。
  2. 作者把连续的深度估计离散化,实验证明增距离散(spacing-increasing discretization, SID)优于等距离散(uniform discretization, UD)。
  3. 网络监督信息是SID策略输出的离散深度值。

3).多尺度特征:

  1. 重复的空间池化会降低特征图的分辨率,所以现有方法需要用跳跃连接和多层反卷积得到高分辨率深度图。这使网络训练变得复杂,而且计算量大。
  2. 作者使用DeepLabV3的ASPP模块,并把其中的全局平均池化替换成全图编码器。

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/713471
推荐阅读
相关标签
  

闽ICP备14008679号