赞
踩
转载请注明作者和出处:http://blog.csdn.net/john_bh/
** Depth Estimation 论文及代码汇总,持续更新中~~**
NYUv2
Middlebury
RGBDD
Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data — CVPR_2024 — code
本文提出了非常实用鲁棒的单目深度估计方法—Depth Anything。文章的目标是不追求新技术模块的情况下,构建一个简单有效的基础模型,用于处理任意环境的任何图片。为此目的设计的数据引擎,可以搜集和自动标注大规模未标注的数据,极大地扩大了数据集,拥有大量数据集能够减少泛化误差。作者研究了两种简单有效的扩大数据的策略,首先,利用数据增强工具创建一个更具挑战性的优化目标,该目标迫使模型积极寻求额外的视觉信息并获得鲁棒的表示;其次,开发了一种辅助监督来强制模型从预训练的编码器继承丰富的语义先验信息。 广泛评估了策略的零样本能力,包括了六个公共数据集和随机捕获的照片。Depth Anything展示了令人印象深刻的泛化能力。此外,通过使用来自NYUv2和KITTI的度量深度信息对其进行微调,达到了新的SOTA。
PatchFusion: An End-to-End Tile-Based Framework for High-Resolution Monocular Metric Depth Estimation — CVPR 2024 — code
解决的问题:高分辨率输入的单幅图像 metric 深度估计 主流的深度估计模型难以适应当今消费相机和设备中常见的不断提高的分辨率。现有的高分辨率策略显示出前景,但它们往往面临局限性,从错误传播到高频细节的丢失。
如果采用全局下采样方式,该步骤的输出本质上是粗略的,而精细的高频细节会以全局一致性为代价而丢失,提出了一种逐片融合网络,通过高级特征指导,将全局一致的粗糙预测与更精细、不一致的tiled 预测融合在一起的;
如果采用patch-wise 方法可能导致尺度偏移的预测和补丁之间的波动,从而导致明显的补丁伪影,提出一种全局到局部模块,为融合网络添加了重要
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。