赞
踩
本文提出了一种3D图形的表示方法,并给出了得到他的网络架构和训练方法。
用decision boundary 来表示物体的表面。
这个方法贼好,放在2D类比,就像像素图和矢量图,矢量图是精度是无限的,但又不会耗费额外的内存。
(对啊,早该想到啊,怎么会2019年才出来。。。既然2D可以有矢量图,3D就不能吗)
具体一点,一个物体用一个occupancy function 来表示:
注意,是实数空间,不是离散的按一定分辨率取样的。
然后用一个神经网络来逼近这个函数,给每个实空间的3D点一个0-1之间的占用概率(因此和二分类模型等价)。神经网络f输入是一个点和一个几何体的表示(X),输出是一个0-1之间的实数,表示这个点在这个几何体里的概率。
这不就完事儿了,直接拿数据训练一下呀,就是一个普通的二分类网络。
对不同输入类型的数据,用不同encoder来输入。
单个图像:ResNet
体素:3D CNN
点云:PointNet等
Marching box算法,生成mesh用的
Fast-Quadric-Mesh-Simplification algorithm: 简化mesh用的。似乎不是一个通用方法,而是github上一个挺好的算法。https://github.com/sp4cerat/Fast-Quadric-Mesh-Simplification
需要采样进行训练。
每个minibatch采样k个点。
论文4.6比较了不同的采样方式,发现在boundingbox内均匀采样,并加一个小的padding,效果最好。
损失函数就是交叉熵函数。
网络训练好后,如何得到mesh呢?
论文提出 Multiresolution IsoSurface Extraction (MISE), 多分辨率表面提取算法。输入训练好的occupancy network,输出mesh。
方法描述:
marching cubes的一张图示:来自视频
这个视频6分钟,原理只在前半部分三分钟左右,一看就懂,清楚明白
(一个cube8个点,每个点可能在或不在,所以一共2^8, but thankfullly, 只有14种,其余的都是对称)
一些细节:
先检验复杂3D模型用occupancy net的表达能力。也就是将ground truth转换为occupancy net的形式。看二者的精度差别和存储空间差别。主要是和基于体素的方法对比。(废话,那肯定好啊)
再针对single image, noisy point clouds, low resolution voxel representations 分别实验
最后验证生成能力。
single image | point cloud | voxel | |
---|---|---|---|
voxel based | 3D-R2N2 | 3D-R2N2 | |
point based | PointSet Generating Networks(PSGN) | PSGN | |
mesh based | Pixel2Mesh & AtlasNet | Deep Marching Cubes (DMC) |
IoU:模型的交并比。越高越好。(只有watertight mesh 能用)
Chamfer-L1 distance:越小越好。(全部可用)
accuracy和completeness的平均。
accuracy是预测mesh上的点到groud truth上的点最近的距离。(两者各随机采样100k个点,取均值)
completeness是 反过来,ground truth上面的点,到最近的output mesh上的点的距离。
用KD tree求距离。
normal consistency score:还没看懂 (点云不可用)
(一个mesh的法线) 和 (另一个mesh中,他的最近邻居的发现)的绝对点集。(取均值)
给定ground truth的mesh,训练occupancy network。
同时也用体素表达这个ground truth。
对比体素法和ONet的 IoU 和 参数大小。
定量分析:ONet精度更高,参数更少
平均IoU约为0.89,与精度关系不大。
定性分析:肉眼可见的细致平滑
定量分析:ShapeNet数据集
定性分析:KITTI 和 OnlineProducts dataset
有趣的是,在Chamfer-L1指标上,其实是AtlasNet最好。
说是PSGN,Pixel2Mesh , AtlasNet都在这个指标上训练了;Onet没有,但也不错。
ShapeNet里面的几何体,采样300个点,再用高斯加噪声。
把体素super resolution:分辨率提到贼高。
输入体素,输出mesh。
有点没看懂,好像是不给定输入,(可能是随机feature作为输入),生成新模型。
能确定的是unsupervised。
但不知道类别是怎么给定的。
采样方法中发现均匀采样最好。
模型架构上发现ResNet和CBN(conditional batch normalization )都很有用。
注释掉CMakeList里面的compute_30
可能需要安装glew和 另一个啥
apt-get install parallel
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。