赞
踩
基本的nerf 是通过过拟合MLP来完成任意视角场景的重建,这有什么问题呢? 这样会导致模型的训练很慢且完全没有泛化能力。训练出来模型只能用于一个场景的重建。 且Nerf的输入只能是 照片以及相机位姿。但是point nerf 可以使用点云作为输入并且考虑到了每一个点对应的2D features。这个有什么好处呢。他可以省去大量sample的过程。因为在原始的nerf中,我们是不知道场景到底在3D空间中的什么地方,所以我们需要使用对光线进行大量的采样,来大致理解3D场景的位置,而point nerf 因为可以使用点云作为输入,点云中的每一个点都可以理解成场景的一部分,所以我们可以对这些点周围的点进行采样。point nerf 使用相对位置计算特征比起nerf完全使用绝对位置来说,繁华能力有所提高。
和nerf相似的点是他们的目的都是要去计算 view-dependent volume density。Nerf 直接使用mlp 进行硬拟合,但是point nerf 使用了neural point来计算这个东西。 neural point 包含三个东西,点的空间位置,点对应的特征,以及它的置信度。 特征是怎么来的。因为知道相机位姿,所以我们可以把3D 点投射到2D feature plane去然后取得每一个点的特征,这就是pixel-aligned features。置信度代表着什么? 置信度表示的是当前这个点在场景表面的可能性有多大。
point-based radiance field怎么获得? 给到任意的一个3D点的位置,我们在这个点的R半径范围内,进行K最近邻采样,然后把这K个点的位置,view direction, 2D features, confidence 一起输入到 point nerf 中去获得 volume density 以及 radiance。 简单来说就是,先处理每一个点,然后再把每一个点相邻的信息整合起来。
为了提高泛化能力,每一个点的特征是需要重新根据相对位置来计算的。之前的点特征是使用的绝对位置,没有 point translation invariant。具体就是使用另一个MLP把特征和相对位置一起做计算即可。
然后需要使用点与shading location的距离来对这些点进行权重的计算,如果说一个点离shading location特别远,那么它对于重建的贡献也就很小,所以它的权重相对就比较低。volume density 和 radiance的计算首先都要使用方法来对点进行权重计算。
点云的位置其实是通过深度的unprojection得到的。那么深度是怎么来的呢? 使用MVSnet或者类似的网络。具体怎么做?深度可以表示成物体离相机的距离,或者是两张照片的视差。MVSnet 使用两张或多张相邻的照片,用2D CNN来提取每一张照片的2D特征, 然后和传统MVS算法一样,使用plane sweeping 的方式,将相邻照片的特征图sweep到 reference image 的 plane上面。这样就可以比较两个feature maps之间到底差了多少,这种差值就是cost volume,它已经包括了视差信息,所以用这个cost volume就可以预测深度信息。文中是用的depth probablity volume,用于表示point confidence。这个过程可以表示成:
这两个方法主要是用于点的处理。前者会根据点的权重来筛选点,也就是说如果点的距离离场景的距离特别的远,那么对于场景的贡献就会变低。这时候就可以将这个点删去,来完成剪枝。此外输入的点云有可能会出现不完整的情况,这个时候就需要将点云补全。通过一条光线上点的可见度来判断这个位置需不需要增加点。判断的条件就是一个点确实是在surface 周边的但是离其他的点很远。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。