赞
踩
Paper name
Consistent Video Depth Estimation
Paper Reading Note
URL: https://arxiv.org/pdf/2004.15021.pdf
代码 URL:https://github.com/facebookresearch/consistent_depth
SIGGRAPH 2020 的文章,提出了一种基于视频的重建方案,结合基于深度学习的深度估计方法及传统的基于几何约束的方法,来得到准确和一致的深度;具体采用的方法是在测试时对单帧深度估计网络进行 finetune,让模型学会满足特定场景的几何约束,同时也保持合成合理深度的能力
整个 PPL 分为两个阶段:预处理、测试时训练
image-space loss(图像空间损失):即对比光流映射得到的图像像素(
f
i
→
j
(
x
)
f_{i \to j}(x)
fi→j(x) )与基于重投影得到的像素(
p
i
→
j
(
x
)
p_{i \to j}(x)
pi→j(x) )计算 L2 损失
disparity loss(视差损失): 约束不同相机坐标系下的视差一致,也即希望同一个空间点在不同帧预测的深度图中深度保持一致(几何一致性)
其中
u
i
u_{i}
ui 是 i 帧的焦距,
z
i
z_{i}
zi、
z
i
→
j
z_{i \to j}
zi→j 分别是是将 i 帧相机坐标系与 i 到 j 的 z 分量 (深度)
评价指标设定
对比实验结果
消融实验
仅用相邻帧的效果不如使用长时间约束的好
有了时序一致性较好的深度,可以支持更好的 CG 合成效果
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。