赞
踩
1.置换(旋转)不变性、输入顺序不变性
2.平移不变性
3.尺度不变性 ?
4.
DGCNN 认为 pointnet++ 属于静态图卷积:
pointnet++ 根据点对的欧氏距离构建图,然后在每一层进行图粗化操作。使用最远点采样选取点作为下一层的输入。这样使得每一层的图不断减小,但是图的结构没有改变。
DGCNN 的动态图,是因为在特征空间取k近邻,每层计算的特征都不相同,因此相当于每一层的图都具有不同的顶点。
实验证明,特征空间中的距离可以更好的拉近相同语义点的距离。这样不仅学习到了点云的几何信息,而且学习如何对点云进行分组。
DGCNN 边卷积的核心分为边缘函数和特征聚合:
PointNet : 直接对单个点提取特征,然后使用max函数聚合特征。
MoNet : 使用高斯核(g)在局部坐标系中计算中心点的特征。并使用求和进行特征聚合。
由于pointNet没有考虑局部特征,而MoNet 失去了全局形状和结构表示。
DGCNN,使用点坐标和点的距离作为输入,同时捕获局部和全局信息,然后使用max pooling:
但是,这样只具有部分的平移不变性:
缺点:
by LDGCNN
1.转换网络(T-net)增加了网络尺寸
2.领域内深度特征的相似性,使其不能很好的生成有价值的边
3.训练参数过多很难找到一个最好的参数
LDGCNN
改进:
1.去除空间转换网络
2.连接分层特征
3. 冻结特征提取网络,使用训练的特征向量重新训练分离器,避免在大量参数的情况下陷入局部最优解。
1.去除空间变换网络
,作者发现MLP可以大致的保证旋转不变性,而不需要空间转换网络。作者认为 一个64个输出通道的MLP,相当与是对点云的64个观测方向(有点像3视图),因此可以保证旋转不变性。
2.多层特征连接
1) 领域特征的相似性,会导致边向量趋近于0
2)由于每层的图结构不一样,使用当前层的图结构可以从以前的特征中学习到新的特征。
3)可以避免在深层网络中的梯度消失。
网络结构:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。