赞
踩
Pointnet开创性地将深度学习直接用于三维点云任务。由于点云数据的无序性,无法直接对原始点云使用卷积等操作。Pointnet提出对称函数来解决点的无序性问题,设计了能够进行分类和分割任务的网络结构,本文结合源码与个人的理解对于T-net网络和对称函数进行分析。
针对点的无序性问题实际上是文章提出了三个方案:
Pointnet网络主要使用对称函数解决点的无序性问题,对称函数就是指对输入顺序不敏感的函数。如加法、点乘、max pooling等操作。假设输入特征为NxD, N N N表示点数, D D D表示维度数,在max pooling作用下,取出每个维度上最大值的1xD的向量,每一维特征都与其顺序无关,这样便保证了对于点云输入顺序的鲁棒性。
Pointnet的解决方法是学习一个变换矩阵 T T T,即 T − N e t T-Net T−Net结构。由于loss的约束,使得 T T T矩阵训练会学习到最有利于最终分类的变换,如把点云旋转到正面。论文的架构中,分别在输入数据后和第一层特征中使用了 T T T矩阵,大小为3x3和64x64。其中第二个T矩阵由于参数过多,考虑添加正则项,使其接近于正交矩阵,减少点云的信息丢失。
将输入的点云数据作为nx3x1单通道图像,接三次卷积和一次池化后,再reshape为1024个节点,然后接两层全连接,网络除最后一层外都使用了ReLU激活函数和批标准化(batch normalization)。
论文中的T-net网络的实际结构并不复杂,我根据个人理解画出T-net的结构。
实际训练过程中,T矩阵的参数初始化使用单位矩阵(np.eye(K)), 参数会随着整个网络的训练进行更新,并不是提前单独训练的。很多文章提到T-Net对特征进行对齐,保证了模型的对特定空间转换的不变性,我其实不太理解这种说法。
实际上通过网络结构看出T-net结构是一个mini的Pointnet做特征提取,是个弱监督学习设计,我理解为需要训练一个矩阵对输入点(或者深层特征)进行坐标变换,个人认为这样的设计实际上是可以保留原始点云的部分特征,为后面的concat操作提供更多特征。源码中在点云分类部分使用到了 T − n e t T-net T−net,点云分割部分可以不用,对结果并没有太大的提升,原因在于pointnet结构自身不能学到点云点的局部联系,因此即使加入类似结构的T-net也是一样。
def input_transform_net(point_cloud, is_training, bn_decay=None, K=3): """ Input: BxNx3 B=batch size;N=number of pointcloud Output: 3x3 matrix """ batch_size = point_cloud.get_shape()[0].value num_point = point_cloud.get_shape()[1].value input_image = tf.expand_dims(point_cloud, -1) # 扩展一维表示通道C,BxNx3x1 # 输入BxNx3x1 # 64个1x3卷积核 (参数[1,3]定义) # 移动步长 1x1 (stride=[1,1]定义) # 输出 BxNx1x64 net = tf_util.conv2d(input_image, 64, [1,3], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv1', bn_decay=bn_decay) # 输入 BxNx1x64 # 128个 1x1 卷积核 # 步长 1x1 # 输出 BxNx1x128 net = tf_util.conv2d(net, 128, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv2', bn_decay=bn_decay) # 输入 BxNx1x128 # 1024个 1x1卷积核 # 输出 BxNx1x1024 net = tf_util.conv2d(net, 1024, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='tconv3', bn_decay=bn_decay) # 池化操作 # 输入 BxNx1x1024 # 输出 Bx1x1x1024 net = tf_util.max_pool2d(net, [num_point,1], padding='VALID', scope='tmaxpool') # 输出 Bx1024 net = tf.reshape(net, [batch_size, -1]) # 全连接层 # 输入 Bx1024 # 权重矩阵 1024x512 # 偏置 512x1 # 输出 Bx512 net = tf_util.fully_connected(net, 512, bn=True, is_training=is_training, scope='tfc1', bn_decay=bn_decay) # 全连接 # 输出 Bx256 net = tf_util.fully_connected(net, 256, bn=True, is_training=is_training, scope='tfc2', bn_decay=bn_decay) # 再次使用全连接,不加ReLU和BN # 输出 Bx9 with tf.variable_scope('transform_XYZ') as sc: assert(K==3) weights = tf.get_variable('weights', [256, 3*K], initializer=tf.constant_initializer(0.0), dtype=tf.float32) biases = tf.get_variable('biases', [3*K], initializer=tf.constant_initializer(0.0), dtype=tf.float32) #初始化为3x3单位矩阵 biases += tf.constant([1,0,0,0,1,0,0,0,1], dtype=tf.float32) transform = tf.matmul(net, weights) transform = tf.nn.bias_add(transform, biases) # reshape # 输出 Bx3x3 transform = tf.reshape(transform, [batch_size, 3, K]) return transform
针对64x64的网络设计与3x3的一样,只是改变了K值,对于文章提到让特征转化矩阵接近正交化,这样特征损失更小,这部分的实现是在分类任务对损失函数加入正则项,及添加权重reg_weight=0.001,下文分析中会标出。
这部分主要分析训练代码和点云分类模型的设计
# 参数输入处理 parser = argparse.ArgumentParser() parser.add_argument('--gpu', type=int, default=0, help='GPU to use [default: GPU 0]') parser.add_argument('--model', default='pointnet_cls', help='Model name: pointnet_cls or pointnet_cls_basic [default: pointnet_cls]') parser.add_argument('--log_dir', default='log', help='Log dir [default: log]') parser.add_argument('--num_point', type=int, default=1024, help='Point Number [256/512/1024/2048] [default: 1024]') parser.add_argument('--max_epoch', type=int, default=250, help='Epoch to run [default: 250]') parser.add_argument('--batch_size', type=int, default=32, help='Batch Size during training [default: 32]') parser.add_argument('--learning_rate', type=float, default=0.001, help='Initial learning rate [default: 0.001]') parser.add_argument('--momentum', type=float, default=0.9, help='Initial learning rate [default: 0.9]') parser.add_argument('--optimizer', default='adam', help='adam or momentum [default: adam]') parser.add_argument('--decay_step', type=int, default=200000, help='Decay step for lr decay [default: 200000]') parser.add_argument('--decay_rate', type=float, default=0.7, help='Decay rate for lr decay [default: 0.8]') FLAGS = parser.parse_args() BATCH_SIZE = FLAGS.batch_size # 训练批次大小 NUM_POINT = FLAGS.num_point # 训练点云点个数 MAX_EPOCH = FLAGS.max_epoch # 最大训练次数 BASE_LEARNING_RATE = FLAGS.learning_rate # 初始学习率 GPU_INDEX = FLAGS.gpu # 默认GPU使用数量 MOMENTUM = FLAGS.momentum # 初始学习率 OPTIMIZER = FLAGS.optimizer # 优化器 DECAY_STEP = FLAGS.decay_step # 衰变步长 DECAY_RATE = FLAGS.decay_rate # 衰变率 # some code ... # 获取模型 pred, end_points = MODEL.get_model(pointclouds_pl, is_training_pl, bn_decay=bn_decay)
原始点云nx3与T-Net训练后得到的3x3旋转矩阵相乘后,可以理解为变换为一组新的坐标下的点云数据。
# 1.原始点云与3x3的T变换矩阵 with tf.variable_scope('transform_net1') as sc: transform = input_transform_net(point_cloud, is_training, bn_decay, K=3) point_cloud_transformed = tf.matmul(point_cloud, transform) input_image = tf.expand_dims(point_cloud_transformed, -1) # 2.mlp(64,64):使用2次卷积 # 输入 Bxnx3x1 # 64个1x3卷积核 # 输出 Bxnx1x64 net = tf_util.conv2d(input_image, 64, [1,3], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='conv1', bn_decay=bn_decay) # 输入 Bxnx1x64 # 输出 Bxnx1x64 net = tf_util.conv2d(net, 64, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='conv2', bn_decay=bn_decay) # 3.接64x64特征转换矩阵 with tf.variable_scope('transform_net2') as sc: transform = feature_transform_net(net, is_training, bn_decay, K=64) end_points['transform'] = transform # 将上一步的net Bxnx1x64压缩为 Bxnx64 和 T-Net的Bx64x64 相乘 net_transformed = tf.matmul(tf.squeeze(net, axis=[2]), transform) # 4.接3次卷积和1次池化,对应图中的mlp(64,128,1024)+maxpool pointnet_cls.py # Bxnx64 扩展为 Bxnx1x64 net_transformed = tf.expand_dims(net_transformed, [2]) # 输入 Bxnx1x64 # 使用64个1x1卷积核 # 输出 Bxnx1x64 net = tf_util.conv2d(net_transformed, 64, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='conv3', bn_decay=bn_decay) # 输入 Bxnx1x64 # 使用128个1x1卷积核 # 输出 Bxnx1x128 net = tf_util.conv2d(net, 128, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='conv4', bn_decay=bn_decay) # 输入 Bxnx1x128 # 使用1024个1x1卷积核 # 输出 Bxnx1x1024 net = tf_util.conv2d(net, 1024, [1,1], padding='VALID', stride=[1,1], bn=True, is_training=is_training, scope='conv5', bn_decay=bn_decay) # Symmetric function: max pooling # 输入 Bxnx1x1024 # 输出 Bx1x1x1024 net = tf_util.max_pool2d(net, [num_point,1], padding='VALID', scope='maxpool') # 输出 Bx1024 net = tf.reshape(net, [batch_size, -1]) # 5.全连接1 + dropout # 输出 batch_size x 512 net = tf_util.fully_connected(net, 512, bn=True, is_training=is_training, scope='fc1', bn_decay=bn_decay) net = tf_util.dropout(net, keep_prob=0.7, is_training=is_training, scope='dp1') # 全连接2 + dropout # 输出 batch_size x 256 net = tf_util.fully_connected(net, 256, bn=True, is_training=is_training, scope='fc2', bn_decay=bn_decay) net = tf_util.dropout(net, keep_prob=0.7, is_training=is_training, scope='dp2') # 全连接3 # 输出 batch_size x 40,因为ModelNet数据集有40个类别的模型 net = tf_util.fully_connected(net, 40, activation_fn=None, scope='fc3') return net, end_points # 6.使用交叉熵损失函数计算loss,对网络结构进行训练。 def get_loss(pred, label, end_points, reg_weight=0.001): """ 预测值pred: B*NUM_CLASSES, 标签值label: B, """ loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=pred, labels=label) classify_loss = tf.reduce_mean(loss) tf.summary.scalar('classify loss', classify_loss) # Enforce the transformation as orthogonal matrix transform = end_points['transform'] # BxKxK K = transform.get_shape()[1].value mat_diff = tf.matmul(transform, tf.transpose(transform, perm=[0,2,1])) mat_diff -= tf.constant(np.eye(K), dtype=tf.float32) mat_diff_loss = tf.nn.l2_loss(mat_diff) tf.summary.scalar('mat loss', mat_diff_loss) #这里加入了reg_weight正则项,使得T-net部分获得的特征转移矩阵更接近与正交化 return classify_loss + mat_diff_loss * reg_weight # 模型优化器选择:adam # 学习率初始值:0.001 # 动量=0.9 # batch_size =32 # 学习率每训练20个epochs后减半 # GTX1080 ModelNet 需要3-6小时
对于pointnet_cls_basic.py没有使用T-net的点云分类,网络结构更容易理解,比加入T-net的结构性能略低。
针对与分割物体上的问题与分类任务不同,分类任务中特征经过max pooling得到一维特征向量,它包含了全局信息,再经过全连接网络,得到1*K的k个类别预测得分即为分类结果。而分割任务中,需要对每一个点输出所属类别,使用类似二维图像分割的上采样过程(跳步连接skip-links)。Pointnet针对分割任务也使用了类似图像分割任务的,高层全局信息与底层局部特征结合的思想。
针对Pointnet论文作者提供的版本(Tensorflow)的源码如下:https://github.com/charlesq34/pointnet
对于pointnet源码其余部分的介绍不详细展开,根据个人理解将源码的结构与功能设计展示如下:
分割部分的代码实现主要在part_seg/(部件分割)和sem_seg/(场景分割)下。其中part_seg中底层局部特征与高层全局特征的连接**(concat)使用到了各层特征**。
sem_seg/model.py场景分割中需要注意论文使用的S3DIS数据维度不再是3维而是更高的9维度(XYZ+RGB+相对于房间的标准化后的位置信息),针对特征连接部分使用高层全局特征(B*1024)接全连接降维到128,然后与高维特征自身做concat,不是采用论文中提到的方式。
而论文中提到的分割结构实际是在models/pointnet_seg.py中实现,即max pooling后的1D特征向量,使用tf.tile()复制n份(n个特征点),与之前网络得到的 n * 64特征矩阵分别concat。得到一个n(64+D)的特征矩阵,再经一系列的特征变换操作,得到每个点的分类结果。
本文主要结合代码层面总结了pointnet网络的分类和分割任务的实现。主要是理解pointnet是如何做到直接从原始点云数据中提取高维特征,并且解决好点云的特性。实际上基于pointnet结构可以进行很多任务,比如点云配准,物体检测,3D重建,法向量估计等,只需要根据具体任务合理修改网络后几层的结构,利用好网络提取的高维特征。
针对pointnet存在的点与点之间相关性的缺失,在pointnet++中使用局部采样+分组+pointnet的结构进行解决,并考虑到了点云的稀疏性解决方案,之后很多深度学习的研究在此基础上展开,习惯上称为pointnet家族(point-wise MLP),比如Frustum,flowNet 3D,LSAnet,PAT等等。个人认为更高的准确度需要点云等3D数据与图像结合进行深度学习训练,将图像的高分辨率优势借鉴进来会有更好的效果。
源码地址:
1.原论文实现代码
https://github.com/charlesq34/pointnet
2.基于pytorch实现:
https://github.com/fxia22/pointnet.pytorch
https://github.com/yanx27/Pointnet_Pointnet2_pytorch
放上自己在谷歌的Colab上的gpu实现:在Colab上实现分类和Part_seg,选择GPU版本的Notebook,
挂载好自己的谷歌云盘(方便保存和加载训练数据),batch_size设置为32,数据集使用别人共享的Shapenet的数据集。
对于语义分割部分colab上的免费gpu满足不了,需要购买更高版本的配置。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。