赞
踩
SqueezeNet系列是比较早期且经典的轻量级网络,SqueezeNet使用Fire模块进行参数压缩,而SqueezeNext则在此基础上加入分离卷积进行改进。虽然SqueezeNet系列不如MobieNet使用广泛,但其架构思想和实验结论还是可以值得借鉴的。
来源:晓飞的算法工程笔记 公众号
论文: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size
在深度学习崭露头角时候,很多研究都关注如何提高网络的准确率,而SqueezeNet则是早期开始关注轻量化网络的研究之一。论文的初衷是通过优化网络的结构,在与当前流行网络的准确率相差不大的情况下,大幅减少模型的参数。
论文的轻量级网络设计主要包含以下策略:
策略1和策略2主要为了减少网络的参数但保持准确率,策略3则是为了在有限的参数下最大化准确率。
SqueezeNet的核心模块为Fire模块,结构如图1所示,输入层先通过squeeze卷积层( 1 × 1 1\times 1 1×1卷积)进行维度压缩,然后通过expand卷积层( 1 × 1 1\times 1 1×1卷积和 3 × 3 3\times 3 3×3卷积混合)进行维度扩展。Fire模块包含3个参数,分别为squeeze层的 1 × 1 1\times 1 1×1卷积核数 s 1 x 1 s_{1x1} s1x1、expand层的 1 × 1 1\times 1 1×1卷积核数 e 1 x 1 e_{1x1} e1x1和expand层的 3 × 3 3\times 3 3×3卷积核数 e 3 x 3 e_{3x3} e3x3,一般 s 1 x 1 < ( e 1 x 1 + e 3 x 3 ) s_{1x1}<(e_{1x1}+e_{3x3}) s1x1<(e1x1+e3x3)
SqueezeNet的结构如表1所示,在conv1、fire4、fire8和conv10后添加池化层进行池化操作,网络中逐步提高输出维度。每个squeeze层和expand层的输出都通过ReLU激活,而fire9模块后面会接50%的Dropout。
与AlexNet相比,相同准确率下,SqueezeNet仅需要1/50的参数量,量化后,最多可以缩小到1/510的参数量。
论文对Fire模块的设定进行了探索实验,主要对比squeeze层的压缩比例以及expand层中的 3 × 3 3\times 3 3×3卷积占比。
论文对网络的微架构进行了探索实验,主要是研究短路连接对网络的影响,对比的网络结构如图2所示。
SqueezeNet作为早期的轻量级网络研究工作,虽然准确率对比的是AlexNet,但其网络压缩比是相当可观的,Fire模块的设计也十分新颖。
论文: SqueezeNext: Hardware-Aware Neural Network Design
SqueezeNext是SqueezeNet实战版升级,直接和MobileNet对比性能。SqueezeNext全部使用标准卷积,分析实际推理速度,优化的手段集中在网络整体结构的优化。
SqueezeNext的设计沿用残差结构,没有使用当时流行的深度卷积,而是直接使用了分离卷积,设计主要基于以下策略:
Low Rank Filters
低秩分解的核心思想就是将大矩阵分解成多个小矩阵,这里使用CP分解(Canonical Polyadic Decomposition),将
K
×
K
K\times K
K×K卷积分解成
K
×
1
K\times 1
K×1和
1
×
K
1\times K
1×K的分离卷积,参数量能从
K
2
K^2
K2降为
2
K
2K
2K。
Bottleneck Module
参数量与输入输出维度有关,虽然可以使用深度卷积来减少计算量,但是深度卷积在终端系统的计算并不高效。因此采用SqueezeNet的squeeze层进行输入维度的压缩,每个block的开头使用连续两个squeeze层,每层降低1/2维度。
Fully Connected Layers
在AlexNet中,全连接层的参数占总模型的96%,SqueezeNext使用bottleneck层来降低全连接层的输入维度,从而降低网络参数量。
基础的1.0-SqNxt-23结构如图3所示,中间的block均为SqueezeNext block,第一个block为正常的卷积,最后两个block分别为bottleneck模块以及全连接层。
论文对比了不同网络以及不同版本的SqueezeNext,包括不同的网络长度,以及加入不同的结构。表中的1.0代表基础的层维度设置,G代表卷积的group size设置为2,后面的数字为总层数,IDA代表使用Iterative Deep Aggregation,融合多层进行输出。
另外论文也对比了更宽的网络的性能,对维度进行了倍数放大。
v5的结构如图9,在模拟硬件性能实验结果中发现,维度越低,计算性能也越低效,于是将更多的层操作集中在维度较高的block。
SqueezeNext在SqueezeNet的压缩思想上,结合分离卷积进行参数压缩改进,文中的模拟硬件推理性能的实验做的很精彩,可以看到作者如何一步一步地改进网络的整体结构,有兴趣的可以去看看原文。
SqueezeNet系列是比较早期且经典的轻量级网络,SqueezeNet使用Fire模块进行参数压缩,而SqueezeNext则在此基础上加入分离卷积进行改进。虽然SqueezeNet系列不如MobieNet使用广泛,但其架构思想和实验结论还是可以值得借鉴的。
如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。