赞
踩
首先分析Point-Voxel卷积和稀疏卷积,并分析它们的瓶颈。
缺陷: 当内存受限制时,它们都会出现信息丢失现象(由粗体素化或过度的下采样引起)。
因此,论文引入了稀疏点体素卷积(SPVConv),以有效处理大型3D场景(图2所示)。
体积卷积一直被认为效率低下,无法扩大规模。最近,研究人员提出了稀疏卷积,它跳过了未激活的区域以显着减少内存消耗。
但是,由于计算资源有限,网络不能很深。因此,网络必须非常依赖下采样以便获得足够大的接收场,这是非常有损耗的。例如,最先进的MinkowskiNet 对输入点云应用四个下采样层,之后,体素大小将变为0.05×24 = 0.8m。类似于Point-Voxel卷积,此分辨率太粗糙而无法捕获小的实例(图4)。
为了克服这两个模块的局限性,我们在图2中展示了稀疏PointVoxel卷积(SPVConv):
两个分支机构通过稀疏体素化和devoxelization进行通信的成本可以忽略不计。
论文使用GPU哈希表来加速稀疏体素化和devoxelization。
Feature Aggregation.
Sparse Devoxelization.
Point Transformation and Feature Fusion.
即使使用上述的模块,设计高效的神经网络仍然具有挑战性。需要仔细调整网络架构(例如,所有层的通道数和内核大小),以满足实际应用的约束条件(例如,延迟,能耗和准确性)。因此,引入了3D神经结构搜索(3D-NAS),以自动设计高效的3D模型(图3所示)。
搜索空间中,结合了细粒度的通道数和弹性网络深度。但是,不支持不同的内核大小。
Fine-grained Channel Numbers.
计算成本随着通道数量的增加而平方增加。因此,信道号的选择对网络效率有很大的影响。
Elastic Network Depths.
在设计空间中支持不同的网络深度。对于3D CNN,仅减少通道数并不能实现显着的测量加速,这与2D CNN完全不同。
Small Kernel Matters.
内核大小通常包含在2D CNN的搜索空间中。这是因为在GPU上,具有较大内核大小的单个卷积会比具有较小内核大小的多个卷积更有效。但是,3D CNN并非如此。
基于这些原因,论文将所有卷积的内核大小保持为3,并且不允许在搜索空间中更改内核大小。即使内核尺寸很小,网络仍然可以通过更改网络深度来实现较大的接收范围,这可以达到与更改内核尺寸相同的效果。
在细粒度的设计空间上进行搜索非常具有挑战性,因为不可能从头开始训练每个采样的候选网络。
Uniform Sampling.
在每次训练迭代中,从超级网络中随机采样一个候选网络:
Weight Sharing.
由于候选网络的数量巨大,因此每个候选网络将仅针对总计划的一小部分进行优化。因此,仅均匀采样不足以充分训练所有候选网络(即,达到与从头开始训练相同的性能水平)。 为了解决这个问题,采用权重共享技术,这样即使没有采样,每个候选网络也可以在每次迭代时进行优化。
在超级网络经过充分训练后,使用进化架构搜索来寻找在一定资源约束下的最佳架构。
Resource Constraints.
用MACs 的数目作为资源限制。对于3DCNNs,不能简单地通过输入大小和网络架构来确定MACs的数量:
为了解决这个问题,首先估计每个卷积层在整个数据集上的平均核映射大小,然后可以基于这些统计数据来测量MACs的数量。
Evolutionary Search.
论文用evolutionary algorithm自动搜索架构。用n个随机抽样的候选网络初始化初始种群。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。