赞
踩
深度卷积神经网络(CNNs)近年来在许多视觉识别领域取得了巨大的成功。然而,现有的深度神经网络模型在计算上是昂贵的且内存是密集型的。这限制了他们在低配置的硬件上的运行。因此,在不显著降低模型性能的情况下,在深度网络中进行模型压缩和加速是一种自然的思路,在这篇博客里讲会大致的想你介绍这个领域内的技术,综述了近年来发展起来的压缩和加速CNNs模型的先进技术。这些技术大致分为四种方案。参数剪枝与共享(parameter pruning and sharing,)、低秩因子分解( low-rank factorization)、传输/紧凑卷积滤波器(transferred/compact convolutional filters)和知识蒸馏(knowledge distillation)。 ,在接下来叙述中我会用英文描述这些单词,中文翻译过来总有种晦涩难懂的感觉,没有英文来的干脆。
近年来,深度神经网络得到了广泛的关注,在不同的应用领域得到了广泛的应用,并在许多任务中取得了显著的精度提高。这些工作依赖于具有数百万甚至数十亿参数的深度网络,而具有极高计算能力的gpu的可用性是这些工作成功的关键。 比为我就以为又没钱又想用到好的GPU而烦恼。一些网络的参数量可以达到数十亿个。
考虑到具有更多层和节点的更大的神经网络,减少它们的存储和计算成本变得至关重要,特别是对于一些实时应用,如在线学习和增量学习。此外,近年来在虚拟现实、增强现实和智能可穿戴设备方面取得了重大进展,为研究人员提供了前所未有的机会,以应对将深度学习系统部署到资源有限(如内存、CPU、能源、带宽)的便携设备的根本性挑战。高效的深度学习方法。例如,ResNet-50的50个卷积层需要超过95MB的内存来存储,处理一张图像需要超过38亿的浮点数乘法。在丢弃了一些冗余的权值之后,网络仍然可以正常工作,但是节省了更多75%的参数和50%的计算时间。对于像手机和fpga这样只有几兆内存的设备来说,如何压缩它们所使用的模型也很重要。
实现这些目标需要来自许多学科的联合解决方案,包括但不限于机器学习优化、计算机架构、数据压缩、索引和硬件设计。
下面用一张表很好的总结这四种方法,也有提出四个方法的论文
适用于具有全连接层和卷积层的DNN模型,具有可比较的性能
另一方面,
在训练协议方面,基于parameter pruning & sharing low-rank factorization的模型可以从预先训练的模型中提取,也可以从零开始训练。而transfered/compact filters和knowledge distillation模型只能支持从无到有的训练。
这些方法都是独立的研发出来的,但是他们之间的使用并没有互相的限制,你可以同时使用这四种方法里面的多种。
在早期时paramerter pruning and sharing 在减小模型的复杂度和处理模型过拟合的工作中取得了不错的效果。在这之后就有很多人来都研究paramerter pruning and sharing。现在这个技术大致被分成了3类
下面我们一个个来说
Network quantization(网络量化)通过减少表示每个权值所需的比特数来压缩原始网络。下面列出这方面相关研究的论文。
缺点:
当处理像GoogleNet这样的大型cnn网络时,二进制网的精度会显著降低。这种二值化网络的另一个缺点是,现有的二值化方案基于简单的矩阵逼近,忽略了二值化对精度损失的影响。
网络权值共享的方法以及被运用到了减小网络复杂度和解决网络过拟合的问题上。
早期的的思路有这些
这些方法的训练程序遵循从无到有的训练方式。
在这个方向上,最近的一个趋势是在一个预先训练好的CNN模型中删除冗余的、非信息性的权重。
当然了相关的论文还有好多好多,我这里不一一列举了
缺点: 剪枝和分享可能有一些潜在的问题。
在包含全连接层的架构中,探索全连接层中参数的冗余是非常有必要的。这往往是内存消耗的瓶颈. 一个m x n的矩阵可以用参数量小于mn 的矩阵去描述,用来描述的矩阵就叫做structural matrix(结构化矩阵)。该结构通过快速的矩阵向量乘法和梯度运算**,不仅降低了内存开销,而且大大加快了推理和训练的速度。**
沿着这个方向在论文Fast neural networks with circulant projections和An exploration of parameter redundancy in deep networks with circulant projections 提出了一种建立在循环检测基础上的一种简单有效的办法同时保持了不错的准确率。给你一个向量 r = (r0; r1; … ; rd-1) , 他对应的循环矩阵就这样给定义:
这样memory cost 就从O(d^2) 变成了 O(d) ,循环结构矩阵同样可以使用FFT(Fast Fourier Transoform) 去提高计算的速度 给定d维向量r的情况下,Eq. 1中的上述1层循环神经网络的时间复杂度为O(d log d)。
在Deep fried convnets,” in International Conference on Computer Vision中提出了一种新的变换方法来重新参数化全连通层的矩阵向量乘法。 这篇论文提到的The Adapitive Fastfood 的转换矩阵被定义为:
R
=
S
H
G
Π
H
B
R = SHGΠHB
R=SHGΠHB
S、G和B是任意的对角矩阵。Π ∈
{
0
,
1
}
d
×
d
\{0,1\}^{d \times d}
{0,1}d×d 是一个任意的置换矩阵。H表示Walsh-Hadamard矩阵,这种方法使用自适应方法对具有d个输入和n个输出的全连接层重新参数化从O(nd)到O(n),从O(nd)到O(n log d),分别减少了存储和计算成本。
缺点:
在卷积神经网络中,卷积操作占据了大部分的运算,因此减少卷积层将会有助于改变模型的压缩率和提升模型的速度。 对于卷积核你可以把他看作一个4维的tensor。基于张量分解的思想是由四维张量中存在大量冗余的直觉得到的,这是一种特别有希望消除冗余的方法。对于全连通层,它可以被看作是一个2D矩阵,低秩性也有帮助。
人们已经开始使用 low-rank filters去提升软件网络的精度很长时间了。例如DCT (discrete cosine transform)和wavelet系统分别用一维DCT变换和一维小波构造张量积。
The low-rank approximation 是逐层进行的。其中一层的参数确定后,根据重构误差准则对上述各层进行微调。 这些是典型的低秩压缩方法2D卷积层,在上图中已经描述了出来。
跟随着上述的思路,2014-Speeding-up Convolutional Neural Networks Using Fine-tuned CP-Decomposition中提出了核张量的正则并矢(CP)分解的方法。他们的工作是用非线性最小二乘法来计算CP分解。
在[40]中,提出了一种计算低秩张量分解的新算法,用于训练低秩约束的CNNs。利用批处理归一化(BN)对内部隐藏单元的激活进行转换。 一般来说,在[40] (BN)中CP和BN的分解方案都是一样的低级别)可以用来从零开始训练CNNs。然后,他们之间还是有微小的区别。例如,在CP分解中寻找最佳低秩近似是一个伪问题,最佳 rank-K (K是秩数)近似有时还可能不存在。而对于BN方案,分解总是存在的。我们对这两种方法进行了简单的比较,如下图所示。
The actual speedup and the compression ratess是用来衡量他们的性能的,如前所述,全连通层可以看作是一个二维矩阵,因此上述方法也可以应用于此。关于在全连通层中开发低秩性的经典作品有好几个。例如
缺点:low-rank 对于模型压缩和加速是直接的,这一想法补充了最近在深度学习方面的进展,如dropout、矫正单元和maxout。 然而,实现并不容易,因为它涉及分解操作,这在计算上是昂贵的。另一个问题是,当前的方法是逐层执行低秩近似,因此不能执行全局参数压缩,这是很重要的,因为不同的层包含不同的信息。最后,与原始模型相比,因式分解需要大量的模型再训练来达到收敛性。
CNNs是parameter efficient 的,这都要归功于它对输入图像的表示的平移不变性,而这点正是训练深层的网络模型不产生过分的过拟合所必须的。虽然目前缺乏一个强有力的理论,但大量的经验证据支持这样的观点,即平移不变性和卷积权值共享对良好的预测性能都很重要。使用TRANSFERRED CONVOLUTIONAL FILTERS来压缩CNN模型的想法是由[43]最近的工作所激发的,该工作引入了等变群理论(the equivariant group theory)。
让
x
\mathrm{x}
x作为输入,
Φ
(
⋅
)
\Phi(\cdot)
Φ(⋅) 作为一个网络或者一个网络层 and
T
(
⋅
)
\mathcal{T}(\cdot)
T(⋅) 作为transform matrix. 等价的概念被定义为:
T
′
Φ
(
x
)
=
Φ
(
T
x
)
\mathcal{T}^{\prime} \Phi(\mathbf{x})=\Phi(\mathcal{T} \mathbf{x})
T′Φ(x)=Φ(Tx)
这表明通过:
indicating that transforming the input x by the transform
T
(
⋅
)
\mathcal{T}(\cdot)
T(⋅) and then passing it through the network or layer
Φ
(
⋅
)
\Phi(\cdot)
Φ(⋅) should give the same result as first mapping x through the network and then transforming the representation. (这句话不翻译了,翻译过来反而更难懂了) 变换
T
(
⋅
)
\mathcal{T}(\cdot)
T(⋅)和
T
′
(
⋅
)
\mathcal{T}^{\prime}(\cdot)
T′(⋅)不一定是相同的,因为它们作用于不同的对象。根据这个理论,根据这一理论,合理应用变换层或flters Φ(·)压缩整个网络模型。从实证观察中我们可以发现 deep CNNs 同样受益于使用作为模型的正则化器的使用一组很小的基频的特定的变换
T
(
⋅
)
\mathcal{T}(\cdot)
T(⋅)。
按照这个方向,最近有许多研究建议从一组基本filter构建一个卷积层
它们的共同点是,变换T(·)属于只在卷积flter的空间域内操作的一类函数,例如在【Understanding and improving convolutional neural networks via concatenated rectifed linear units】中的工作发现CNNs的下卷积层通过学习冗余flters来提取输入信号的正负相位信息,将T(·)定义为简单的否定函数:
T
(
W
x
)
=
W
x
−
\mathcal{T}\left(\mathbf{W}_{x}\right)=\mathbf{W}_{x}^{-}
T(Wx)=Wx−
这里 W x \mathbf{W}_{x} Wx是基础的卷积核, W x − \mathbf{W}_{x}^{-} Wx−是由激活与Wx相反的 shift 组成的flter x,这些shilt 是在max-pooling操作后选择的。通过这个操作可以简单的实现在所有的卷积层上都有2倍的压缩率。结果表明,否定变换是一种强正则化方法,提高了分类精度。直观的理解是,使用pair-wise positive-negative constraint的学习算法可以得到有用的卷积filter,而不是冗余的filter。
在【Multi-bias non-linear activation in deep neural networks】中发现,卷积核的响应幅度在网络中具有广泛的模式表示多样性,仅用一个阈值来舍弃较弱的信号是不合适的. 为此,提出了一种多偏置非线性激活函数,以较低的计算代价在特征空间中生成更多的模式,转换 T ( ⋅ ) \mathcal{T}(\cdot) T(⋅)被定义为:
T
′
Φ
(
x
)
=
W
x
+
δ
\mathcal{T}^{\prime} \Phi(\mathbf{x})=\mathbf{W}_{x}+\delta
T′Φ(x)=Wx+δ
δ
\delta
δ是multi-bias 特征。在【Understanding and improving convolutional neural networks via concatenated rectifed linear units】中考虑一个多90◦和水平/垂直配置的旋转组合:
T ∗ Φ ( x ) = W T θ \mathcal{T}^{*} \Phi(\mathbf{x})=\mathbf{W}^{T_{\theta}} T∗Φ(x)=WTθ
where W T θ \mathbf{W}^{T_{\theta}} WTθ was the transformation matrix which rotated the original filters with angle θ ∈ { 90 , 180 , 270 } . \theta \in\{90,180,270\} . θ∈{90,180,270}. 在【Group equivariant convolutional networks】中变换推广到任何从数据中获取到的角度数据,θ也是直接从数据获得。
在【Doubly convolutional neural networks】中定义
T
(
⋅
)
\mathcal{T}(\cdot)
T(⋅)作为应用在2D filters上的translation function。
T
‘
Φ
(
x
)
=
T
(
⋅
,
x
,
y
)
x
,
y
∈
{
−
k
,
…
,
k
}
,
(
x
,
y
)
≠
(
0
,
0
)
\mathcal{T}^{‘} \Phi(\mathbf{x})=T(\cdot, x, y)_{x, y \in\{-k, \ldots, k\},(x, y) \neq(0,0)}
T‘Φ(x)=T(⋅,x,y)x,y∈{−k,…,k},(x,y)=(0,0)
T
(
⋅
,
x
,
y
)
T(\cdot, x, y)
T(⋅,x,y)表示将第一个操作数沿其空间维数(x, y)平移,并在边界上加上适当的补零以保持形状。提出的框架可用于
R
=
circ
(
r
)
:
=
[
r
0
r
d
−
1
…
r
2
r
1
r
1
r
0
r
d
−
1
r
2
⋮
r
1
r
0
⋱
⋮
r
d
−
2
⋱
⋱
r
d
−
1
r
d
−
1
r
d
−
2
…
r
1
r
0
]
\mathbf{R}=\operatorname{circ}(\mathbf{r}):=\left[
TABLE Ⅲ 中简要的概述了transferred convolutional filter在使用VGGNet作为基本框架不同的网络模型取得的效果。结果表明,它们可以在分类精度几乎没有下降的情况下实现参数的减少。
缺点: 对于将transform constraints to couvolutional filter的方法,需要解决的问题很少.
据我们所知,Caruana等人首先提出利用知识转移(KT)来压缩模型。他们训练了一个带有伪数据标记的强分类器的压缩/集成模型,并复制了原始大网络的输出,但这项工作仅限于浅层模型。该思想最近被论文【Do deep nets really need to be deep?】采用作为知识蒸馏(KD),将深度和广度的网络压缩为较浅的网络,其中压缩模型模仿复杂模型学习的功能。KD方法的主要思想是通过softmax学习课堂分布输出,将知识从大型teacher model转化为小型teacher model
【Distilling the knowledge in a neural network】的工作引入了KD压缩框架,该框架通过遵循学生-教师的范式简化了深层网络的训练,在这种范式中,学生根据教师输出的软化版本受到”惩罚“。该框架将一个教师网络集合压缩成一个具有类似深度的学生网络。学生被训练去预测输出和分类标签。尽管KD算法简单,但它在各种图像分类任务中显示出了良好的效果。听起来是不是很像自编码器呢?
【Fitnets: Hints for thin deep nets】中的工作旨在利用深度神经网络来解决网络压缩问题,它提出了一种训练细而深的网络的方法,称为FitNets,来压缩宽而浅的(但仍然深的)网络。该方法扩展了该思想,允许更薄和更深的学生模型。为了学习教师网络的中间表示,FitNet让学生模仿教师的全部特征图。然而,这样的假设过于严格,因为教师和学生的能力可能会有很大的不同。以上方法均在MNIST、CIFAR10、CIFAR-100、SVHN和AFLW基准数据集上得到验证同时这些方法能较好地匹配或优于教师的教学效果,但所需的参数和乘法明显减少。
沿着这个方向有几个延伸的蒸馏知识。
-【Bayesian dark knowledge】中的工作训练了一个参数化的学生模型来近似蒙特卡罗老师。该框架采用在线训练,学生模型采用深度神经网络。
缺点:
基于KD的方法可以使模型的深度更小,大大降低计算成本,然而,也有一些缺点。
深度模型的压缩和加速技术还处在早期阶段,目前还存在以下挑战:
到这里最经典的四种神经网络模型压缩与加速的方法总算介绍完了,陆陆续续写了三个星期,喜欢的请给赞鼓励一下哈。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。