赞
踩
英文 | 中文题目 | 摘要 |
A Non-Local Cost Aggregation Method for Stereo Matching(NCA-Net) | 一种用于立体匹配的NonLocal代价聚集方法(NCA-Net) | 给定图像转换的图,根据最小生成树的原则,计算每个像素位置的(不同视差)的全局cost。选择最小cost所对应的视差为当前像素的视差。 |
ActiveStereoNet - End-to-End Self-Supervised Learning for Active Stereo Systems | ActiveStereoNet——端到端自监督学习的主动立体系统 | 基于主动立体相机系统(不是普通的双目相机)的视差估计 |
Cascade Residual Learning - A Two-stage Convolutional Neural Network for Stereo Matching(CRL) | 级联残差学习——用于立体匹配的两级卷积神经网络(CRL) | 代码:https://github.com/Artifineuro/crl 两个阶段:初始估计和refine。 两个阶段的网络结构类似于DispNetC(参考文献40),区别在于是全分辨率输出 refine阶段采用的是残差r的更新(网络结构见图1) |
EdgeStereo - A Context Integrated Residual Pyramid Network for Stereo Matching(EdgeStereo-V2) | EdgeStereo——用于立体匹配的上下文集成残差金字塔网络(EdgeStereo-V2) | 网络结构如图2 1. 视差网:两个金字塔,一个获取多尺度context信息,另一个利用残差信息实现refine 2. HED边缘检测网:利用边缘信息对视差进行正则化 |
Hierarchical Discrete Distribution Decomposition for Match Density Estimation(HD^3-Stereo) | 用于匹配密度估计的分层离散分布分解(HD^3-Stereo) | 目的是不仅估计视差,而且估计(每个点)视差的分布(不确定性)。 采用多尺度、refine等思想,集成了DLA、HAD等已有的技术。 结构图如图2 |
Learning Depth with Convolutional Spatial Propagation Network(CSPN) | 卷积空间传播网络的学习深度 | 提出卷积空间传播(CSPN),省去了传统SPN连续4个方向的处理,从而一次完成。并将其推广到3D,从而应用于各种立体视觉应用,包括立体匹配。这里是用于类似于CRF的后处理。PSMNet的改进 |
Learning for Disparity Estimation through Feature Constancy(iResNet) | 基于特征一致性的视差估计学习(iResNet) | 网络结构见图1,共分三个部分。算法强调特征一致性 代码:https://github.com/leonzfa/iResNet |
Pyramid Stereo Matching Network(PSM Net) | 金字塔立体匹配网 | SPP(空间金字塔池化)+ 3D卷积。见图1 |
Stereo Matching by Training a Convolutional Neural Network to Compare Image Patches(MC-CNN) | 训练卷积神经网络比较图像块的立体匹配(MC-CNN) | 提出用以计算cost volumn的CNN网,而后续的处理仍然采用传统的方法 |
End-to-End Learning of Geometry and Context for Deep Stereo Regression(GC Net) | 几何与上下文的端到端学习实现深度立体回归(GC-Net) | 网络结构如图1,计算一元特征,然后Cost Volumn,最后3D卷积。 |
StereoNet - Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction | StereoNet——实时边缘感知深度预测的指导的分层精化算法 | 网络结构如图1,实时算法(60fp),特征抽取阶段下采样,3D卷积,估计视差阶段,采用refine的思想 |
CVPR2019 | ||
GA-Net: Guided Aggregation Net for End-To-End Stereo Matching | GA-Net:端到端立体匹配的引导聚合网 | 提出两种cost aggregation方法:semi-global和local,分别对应无纹理区和细结构/边缘区 |
Guided Stereo Matching | 引导立体匹配 | 给定稀疏(正确)的深度值(可以容易地转化为对应点的视差值),利用这部分信息作为引导,辅助实现立体视觉(公式1-4,通过图2b,c可以看出,其对性能的提升也是有明显的好处的) |
Group-Wise Correlation Stereo Network | 群相关立体网络 | PSMNet基础上的改进,主要体现在以下几个方面: 1. costVolumn采用concatenation(公式2)和correlation(公式1)相结合的方式,特别是correlation,采用通道分组的方式(公式3),以获取更多的信息,从而使aggregationNet简化成为可能。 2. aggregation Net 进行了改进(图2),提升了速度 |
Multi-Level Context Ultra-Aggregation for Stereo Matching | 基于多级上下文超聚合的立体匹配 | 基于PSMNet的改进,主要改动在前端matching cost calculation部分,如图3,添加了一个子分支,从而定义了所谓“interesting level组合”(图中彩色实线),而模块内部采用的是密集连接,文中称为高阶RCNN 另一部分改进在输出部分,见图2,引入了残差模块来精化 |
Hierarchical Deep Stereo Matching on High-Resolution Images | 高分辨率图像的分层深度立体匹配 | 主要是利用空间金字塔(SPP)抽取不同(4个)尺度的特征,并由此得到多尺度的costVolumn,低尺度特征不仅独立估计视差,同时辅助高尺度特征计算高尺度costVolumn(图2,3),即所谓“层级” 文中同时还给出数据增广方法和新的训练数据集 |
StereoDRNet: Dilated Residual StereoNet | StereoDRNet:扩张的残差立体网 | 流程框架见图2,文中在特征抽取、CostFiltering、回归、精化等几个子模块都有改进,主要有: 1. DR:CostFiltering中使用扩张卷积和残差 2. 特征抽取中使用Vortex池化 3. 精化阶段不仅考虑光度误差(公式4),同时考虑几何误差(公式5) 详细可见Contribution 中介绍 |
Real-Time Self-Adaptive Deep Stereo | 实时自适应深度立体 | MADNet:在线自适应来解决domain shift问题(训练集为合成数据,而真实测试集为真实场景)。在实际使用中,每帧数据(对)不仅用来计算视差,同时用来在线更新网络权值,达到自适应的目的 |
LAF-Net: Locally Adaptive Fusion Networks for Stereo Confidence Estimation | LAF-Net:用于立体置信估计的局部(L)自适应(A)融合(F)网络 | 置信图(Confidence map)用以衡量每个点的(估计后)视差的置信度(如图1),进而对不同置信度像素点的视差可以refine等后处理。 |
ICCV2019 | ||
DeepPruner: Learning Efficient Stereo Matching via Differentiable PatchMatch | DeepPruner:通过可微Patch匹配实现有效的立体匹配学习 | 1. 利用RNN的结构,描述PatchMatch 2. 利用可微的PatchMatch,缩小每个像素视差的搜索范围(传统的方法是所有视差可能性,而文中每个像素考虑的是部分视差,即Confidence Range,大约是全部视差范围的1/10) |
Semantic Stereo Matching With Pyramid Cost Volumes | 基于金字塔CostVolume的语义立体匹配 | 1. 采用语义分割提升立体匹配 2. 采用不同尺度的CostVolume |
OmniMVS: End-to-End Learning for Omnidirectional Stereo Matching | OmniMVS:全方位立体匹配的端到端学习 | 多视角的立体匹配 |
TAPA-MVS: Textureless-Aware PAtchMatch Multi-View Stereo | TAPA-MVS:无纹理感知PatchMatch多视图立体 | 多视角的立体匹配 |
P-MVSNet: Learning Patch-Wise Matching Confidence Aggregation for Multi-View Stereo | P-MVSNet:学习多视点立体视觉的逐块匹配置信聚集 | 多视角的立体匹配 |
AutoDispNet: Improving Disparity Estimation With AutoML | AutoDispNet:用AutoML改进视差估计 | 网络结构搜索和最优超参数搜索的方法 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。