当前位置:   article > 正文

DGCNN (Dynamic Graph CNN for Learning on Point Clouds,动态图卷积网络)

dgcnn

1. 解决问题

1.置换(旋转)不变性、输入顺序不变性

2.平移不变性

3.尺度不变性 ?

4.

2. 关键思想

DGCNN 认为 pointnet++ 属于静态图卷积:

pointnet++ 根据点对的欧氏距离构建图,然后在每一层进行图粗化操作。使用最远点采样选取点作为下一层的输入。这样使得每一层的图不断减小,但是图的结构没有改变。

DGCNN 的动态图,是因为在特征空间取k近邻,每层计算的特征都不相同,因此相当于每一层的图都具有不同的顶点。

实验证明,特征空间中的距离可以更好的拉近相同语义点的距离。这样不仅学习到了点云的几何信息,而且学习如何对点云进行分组。

 

DGCNN 边卷积的核心分为边缘函数和特征聚合:

PointNet : 直接对单个点提取特征,然后使用max函数聚合特征。

MoNet : 使用高斯核(g)在局部坐标系中计算中心点的特征。并使用求和进行特征聚合。

由于pointNet没有考虑局部特征,而MoNet 失去了全局形状和结构表示。

DGCNN,使用点坐标和点的距离作为输入,同时捕获局部和全局信息,然后使用max pooling:

 

但是,这样只具有部分的平移不变性:

3.系统结构:

 

4.改进方向

缺点:

by LDGCNN

1.转换网络(T-net)增加了网络尺寸

2.领域内深度特征的相似性,使其不能很好的生成有价值的边

3.训练参数过多很难找到一个最好的参数

 

 

 

LDGCNN 

改进:

1.去除空间转换网络

2.连接分层特征

3. 冻结特征提取网络,使用训练的特征向量重新训练分离器,避免在大量参数的情况下陷入局部最优解。

1.去除空间变换网络

,作者发现MLP可以大致的保证旋转不变性,而不需要空间转换网络。作者认为 一个64个输出通道的MLP,相当与是对点云的64个观测方向(有点像3视图),因此可以保证旋转不变性。

2.多层特征连接

1) 领域特征的相似性,会导致边向量趋近于0

2)由于每层的图结构不一样,使用当前层的图结构可以从以前的特征中学习到新的特征。

3)可以避免在深层网络中的梯度消失。

网络结构:

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号