当前位置:   article > 正文

pointnet与pointnet++_pointnet和pointnet++

pointnet和pointnet++

整合几位网上的大佬的经验

一、三维深度学习

非欧式(manifold,graph):在流形或图的结构上进行卷积,三维点云可以表现为mesh结构,可以通过点对之间临接关系表现为图的结构。

多视角(multi-view):通过多视角二维图片组合为三维物体,此方法将传统CNN应用于多张二维视角的图片,特征被view pooling procedure聚合起来形成三维物体;

体素(volumetric):通过将物体表现为空间中的体素进行类似于二维的三维卷积(例如,卷积核大小为5x5x5),是规律化的并且易于类比二维的,但同时因为多了一个维度出来,时间和空间复杂度都非常高,目前已经不是主流的方法了;

点云(point clouds):直接将三维点云抛入网络进行训练,数据量小。主要任务有分类、分割以及大场景下语义分割;

​​​​

二、点云的问题

无序性:点云本质上是一长串点(nx3矩阵,其中n是点数)。在几何上,点的顺序不影响它在空间中对整体形状的表示,例如,相同的点云可以由两个完全不同的矩阵表示。 希望得到的效果如下图右边:N代表点云个数,D代表每个点的特征维度。不论点云顺序怎样,希望得到相同的特征提取结果。

 

网络的一般结构是:提特征-特征映射-特征图压缩(降维)-全连接。

下图中x代表点云中某个点,h代表特征提取层,g叫做对称方法,r代表更高维特征提取,最后接一个softmax分类。g可以是maxpooling或sumpooling,也就是说,最后的D维特征对每一维都选取N个点中对应的最大特征值或特征值总和,这样就可以通过g来解决无序性问题。pointnet采用了max-pooling策略。

 

2.旋转性:

点云的旋转不变性指的是,给予一个点云一个旋转,所有的x,y,z x,y,zx,y,z坐标都变了,但是代表的还是同一个物体。

​    ​

因此对于普通的PointNet(vanilla),如果先后输入同一个但是经过不同旋转角度的物体,它可能不能很好地将其识别出来。在论文中的方法是新引入了一个T-Net网络去学习点云的旋转,将物体校准,剩下来的PointNet(vanilla)只需要对校准后的物体进行分类或者分割即可。

由图可以看出,由于点云的旋转非常的简单,只需要对一个N×D的点云矩阵乘以一个D×D 的旋转矩阵即可,因此对输入点云学习一个3×3 的矩阵,即可将其矫正;同样的将点云映射到K维的冗余空间后,再对K维的点云特征做一次校对,只不过这次校对需要引入一个正则化惩罚项,希望其尽可能接近于一个正交矩阵。

三、pointnet网络结构详解  

网络的两个亮点:  空间变换网络解决旋转问题:三维的STN可以通过学习点云本身的位姿信息学习到一个最有利于网络进行分类或分割的DxD旋转矩阵(D代表特征维度,pointnet中D采用3和64)。至于其中的原理,我的理解是,通过控制最后的loss来对变换矩阵进行调整,pointnet并不关心最后真正做了什么变换,只要有利于最后的结果都可以。pointnet采用了两次STN,第一次input transform是对空间中点云进行调整,直观上理解是旋转出一个更有利于分类或分割的角度,比如把物体转到正面;第二次feature transform是对提取出的64维特征进行对齐,即在特征层面对点云进行变换。
maxpooling解决无序性问题:网络对每个点进行了一定程度的特征提取之后,maxpooling可以对点云的整体提取出global feature。
网络结构:

 其中,mlp是通过共享权重的卷积实现的,第一层卷积核大小是1x3(因为每个点的维度是xyz),之后的每一层卷积核大小都是1x1。即特征提取层只是把每个点连接起来而已。经过两个空间变换网络和两个mlp之后,对每一个点提取1024维特征,经过maxpool变成1x1024的全局特征。再经过一个mlp(代码中运用全连接)得到k个score。分类网络最后接的loss是softmax。
 

 

具体来说,对于每一个N×3 的点云输入,网络先通过一个T-Net将其在空间上对齐(旋转到正面),再通过MLP将其映射到64维的空间上,再进行对齐,最后映射到1024维的空间上。这时对于每一个点,都有一个1024维的向量表征,而这样的向量表征对于一个3维的点云明显是冗余的,因此这个时候引入最大池化操作,将1024维所有通道上都只保留最大的那一个,这样得到的1×1024 的向量就是N个点云的全局特征。
 如果做的是分类的问题,直接将这个全局特征再进过MLP去输出每一类的概率即可;但如果是分割问题,由于需要输出的是逐点的类别,因此其将全局特征拼接在了点云64维的逐点特征上,最后通过MLP,输出逐点的分类概率。
四、实验结果

不仅如此,论文对PointNet对点云的点的缺失鲁棒性做了实验,实验证明,当PointNet缺失了60%左右的点的时候,其网络的效果都不怎么减少:

通过研究是哪些点最大程度激活了神经元的值,论文发现,能够最大程度激活网络的点都是物体的主干点(下图第二行),将其上采样,很容易能得到原始的结构。因此这就是PointNet网络的缺失鲁棒性的来源。

五、代码解析

PointNet的代码实际上仅由两部分组成,就是T-Net和一个Encoder-Decoder结构

先看T-Net的代码:

  1. class T_Net(nn.Module):
  2. def __init__(self):
  3. super(T_Net, self).__init__()
  4. # 这里需要注意的是上文提到的MLP均由卷积结构完成
  5. # 比如说将3维映射到64维,其利用64个1x3的卷积核
  6. self.conv1 = torch.nn.Conv1d(3, 64, 1)
  7. self.conv2 = torch.nn.Conv1d(64, 128, 1)
  8. self.conv3 = torch.nn.Conv1d(128, 1024, 1)
  9. self.fc1 = nn.Linear(1024, 512)
  10. self.fc2 = nn.Linear(512, 256)
  11. self.fc3 = nn.Linear(256, 9)
  12. self.relu = nn.ReLU()
  13. self.bn1 = nn.BatchNorm1d(64)
  14. self.bn2 = nn.BatchNorm1d(128)
  15. self.bn3 = nn.BatchNorm1d(1024)
  16. self.bn4 = nn.BatchNorm1d(512)
  17. self.bn5 = nn.BatchNorm1d(256)
  18. def forward(self, x):
  19. batchsize = x.size()[0]
  20. x = F.relu(self.bn1(self.conv1(x)))
  21. x = F.relu(self.bn2(self.conv2(x)))
  22. x = F.relu(self.bn3(self.conv3(x)))
  23. x = torch.max(x, 2, keepdim=True)[0]
  24. x = x.view(-1, 1024)
  25. x = F.relu(self.bn4(self.fc1(x)))
  26. x = F.relu(self.bn5(self.fc2(x)))
  27. x = self.fc3(x)
  28. iden = Variable(torch.from_numpy(np.array([1,0,0,0,1,0,0,0,1]).astype(np.float32))).view(1,9).repeat(batchsize,1)
  29. if x.is_cuda:
  30. iden = iden.cuda()
  31. x = x + iden
  32. x = x.view(-1, 3, 3) # 输出为Batch*3*3的张量
  33. return x

PointNet的主体:

  1. class PointNetEncoder(nn.Module):
  2. def __init__(self, global_feat = True):
  3. super(PointNetEncoder, self).__init__()
  4. self.stn = T_Net()
  5. self.conv1 = torch.nn.Conv1d(3, 64, 1)
  6. self.conv2 = torch.nn.Conv1d(64, 128, 1)
  7. self.conv3 = torch.nn.Conv1d(128, 1024, 1)
  8. self.bn1 = nn.BatchNorm1d(64)
  9. self.bn2 = nn.BatchNorm1d(128)
  10. self.bn3 = nn.BatchNorm1d(1024)
  11. self.global_feat = global_feat
  12. def forward(self, x):
  13. '''生成全局特征'''
  14. n_pts = x.size()[2]
  15. trans = self.stn(x)
  16. x = x.transpose(2,1)
  17. x = torch.bmm(x, trans) # batch matrix multiply 即乘以T-Net的结果
  18. x = x.transpose(2,1)
  19. x = self.conv1(x)
  20. x = F.relu(self.bn1(x))
  21. pointfeat = x
  22. x_skip = self.conv2(x)
  23. x = F.relu(self.bn2(x_skip))
  24. x = self.bn3(self.conv3(x))
  25. x = torch.max(x, 2, keepdim=True)[0]
  26. x = x.view(-1, 1024)
  27. if self.global_feat:
  28. return x, trans
  29. else:
  30. x = x.view(-1, 1024, 1).repeat(1, 1, n_pts)
  31. return torch.cat([x, pointfeat], 1), trans
  32. class PointNetCls(nn.Module):
  33. def __init__(self, k = 2):
  34. super(PointNetCls, self).__init__()
  35. self.k = k
  36. self.feat = PointNetEncoder(global_feat=False)
  37. self.conv1 = torch.nn.Conv1d(1088, 512, 1)
  38. self.conv2 = torch.nn.Conv1d(512, 256, 1)
  39. self.conv3 = torch.nn.Conv1d(256, 128, 1)
  40. self.conv4 = torch.nn.Conv1d(128, self.k, 1)
  41. self.bn1 = nn.BatchNorm1d(512)
  42. self.bn2 = nn.BatchNorm1d(256)
  43. self.bn3 = nn.BatchNorm1d(128)
  44. def forward(self, x):
  45. '''分类网络'''
  46. batchsize = x.size()[0]
  47. n_pts = x.size()[2]
  48. x, trans = self.feat(x)
  49. x = F.relu(self.bn1(self.conv1(x)))
  50. x = F.relu(self.bn2(self.conv2(x)))
  51. x = F.relu(self.bn3(self.conv3(x)))
  52. x = self.conv4(x)
  53. x = x.transpose(2,1).contiguous()
  54. x = F.log_softmax(x.view(-1,self.k), dim=-1)
  55. x = x.view(batchsize, n_pts, self.k)
  56. return x
  57. class PointNetPartSeg(nn.Module):
  58. def __init__(self,num_class):
  59. super(PointNetPartSeg, self).__init__()
  60. self.k = num_class
  61. self.feat = PointNetEncoder(global_feat=False)
  62. self.conv1 = torch.nn.Conv1d(1088, 512, 1)
  63. self.conv2 = torch.nn.Conv1d(512, 256, 1)
  64. self.conv3 = torch.nn.Conv1d(256, 128, 1)
  65. self.conv4 = torch.nn.Conv1d(128, self.k, 1)
  66. self.bn1 = nn.BatchNorm1d(512)
  67. self.bn1_1 = nn.BatchNorm1d(1024)
  68. self.bn2 = nn.BatchNorm1d(256)
  69. self.bn3 = nn.BatchNorm1d(128)
  70. def forward(self, x):
  71. '''分割网络'''
  72. batchsize = x.size()[0]
  73. n_pts = x.size()[2]
  74. x, trans = self.feat(x)
  75. x = F.relu(self.bn1(self.conv1(x)))
  76. x = F.relu(self.bn2(self.conv2(x)))
  77. x = F.relu(self.bn3(self.conv3(x)))
  78. x = self.conv4(x)
  79. x = x.transpose(2,1).contiguous()
  80. x = F.log_softmax(x.view(-1,self.k), dim=-1)
  81. x = x.view(batchsize, n_pts, self.k)
  82. return x, trans

六、pointnet++

PointNet++的提出源于PointNet的缺点——缺失局部特征。从很多实验结果都可以看出,PointNet对于场景的分割效果十分一般,由于其网络直接暴力地将所有的点最大池化为了一个全局特征,因此局部点与点之间的联系并没有被网络学习到。在分类和物体的Part Segmentation中,这样的问题还可以通过中心化物体的坐标轴部分地解决,但在场景分割中,这就导致效果十分一般了。
第二代PointNet中主要借鉴了CNN的多层感受野的思想。CNN通过分层不断地使用卷积核扫描图像上的像素并做内积,使得越到后面的特征图感受野越大,同时每个像素包含的信息也越多。而PointNet++就是仿照了这样的结构,具体如下:

其先通过在整个点云的局部采样并划一个范围,将里面的点作为局部的特征,用PointNet进行一次特征的提取。因此,通过了多次这样的操作以后,原本的点的个数变得越来越少,而每个点都是有上一层更多的点通过PointNet提取出来的局部特征,也就是每个点包含的信息变多了。文章将这样的一个层成为Set Abstraction。

分类网络只要通过这样逐层的提取局部特征,最后总结出全局特征就可以输出分类结果了,如图:

分割网络相比而言较为复杂,其会先将点云提取一个全局的特征,再通过这个全局的特征逐步上采样,大致的流程如下:

论文中讨论了上采样的一些方法,当然最简单的就是简单的广播复制Broadcasting,即将每个点的附近的点的特征都变成和这个点一样,但是这样的方法会使得没有办法处理一些范围相冲突的点,或者范围没有覆盖到的点,如图:

论文中作者采用的是线性差值的方法,具体的公式如下:

简单来说就是距离越远的点权重越小,最后对于每一个点的权重再做一个全局的归一化。最后分割网络的结构长成这个样子:

与图像分割网络U-Net类似,对于相同的点个数的层,作者采用了直连的方式将Encoder里面的特征拼接到了Decoder的特征后。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/115851
推荐阅读
相关标签
  

闽ICP备14008679号