赞
踩
由于点云的不规则性和无序性,我们不能直接使用卷积来进行处理点云。与此同时,注意力机制是一种排序不变、不依赖点连接算子,十分适合点云的操作。
点云的整体架构
点云整体架构由输入嵌入部分——>注意力层——>分割分类构成。其设计主要参考了PointNet和Transformer的设计理念。
输入嵌入部分
输入嵌入部分主要由两种形式构成:
该层的目的在于把点云映射到高维空间。如上图,则是映射为128维度。是否可以使用其他方法 改进 KNN
注意力层
PCT注意力层使用了两种模型:
self-attention
self-attention
和图中卷积的拉普拉斯算子)如图,输入嵌入进行升维成为128维度,进行线性变换分别生成self-attention
中的Q、K、V 矩阵。为了保存维度一致,对K进行转置。进行Softmax
标准化(方便求解梯度),得到Attention Map
(也就是下图中的五角星)。点乘生成V矩阵得到Attenion Feature
。运用offset-attention
生成LBR。
分类分割头部
参考PointNet设计:
Attention Feature
,进行Pooling(一般情况还是使用Max Pooling)得到全局特征
,进行全连接
和Dropout
(防止过拟合),输出分类结果。Attention Feature
(如何得到局部特征
)得到局部特征
,结合分类得到的全局特征
。拼接局部特征
和全局特征
,进行全连接
和Dropout
特征。PCT分类
论文中把PCT分成了三类:
PCT使用的三种数据库
论文精读
点云和NLP领域上不太相关,PCT主要做出了以下的修改:
基于坐标的输入嵌入模块 —— 解决点云的无序性
优化 offer-attention 模块 —— 优化之前Transformer的self-attention层,使用offset。把点云看作图、把浮点数矩阵。看作attention map
作用:
Laplacian
矩阵更为有效邻近嵌入模块 —— 加强局部的效果,而不只是考虑单点无关联情况
相关工作
邻近嵌入模块
——可以捕获局部信息并获取语义信息。Transformer
而不是使用self-attention
作为辅助。PCT的表示:
self-attention
。self-attention
Q、K、V 模型,最后进行标准化。——>解决点云无序、不规则问题。采用SSknn
后续补充
参考
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。