当前位置:   article > 正文

ADMM算法在神经网络模型剪枝方面的应用_admm算法的优点

admm算法的优点

前言

  本篇博客记录一下自己根据对论文 GRIM: A General, Real-Time Deep Learning Inference Framework for Mobile Devices based on Fine-Grained Structured Weight Sparsity 中提到的ADMM算法的理解,给出了ADMM算法的推导过程,并在文章的末尾提供了实现的代码。

1. 交替方向乘子法

  交替方向乘子法(Alternating Direction Method of Multipliers, ADMM)作为一种求解优化问题的计算框架,适用于求解凸优化问题。ADMM算法的思想根源可以追溯到20世纪50年代,在20世纪八九十年代中期存在大量的文章分析这种方法的性质,但是当时ADMM主要用于解决偏微分方程问题。1970年由 R. GlowinskiD. Gabay 等提出的一种适用于可分离凸优化的简单有效方法,并在统计机器学习、数据挖掘和计算机视觉等领域中得到了广泛应用。ADMM算法主要解决带有等式约束的关于两个变量的目标函数的最小化问题,可以看作在增广拉朗格朗日算法基础上发展的算法,混合了对偶上升算法(Dual Ascent)的可分解性和乘子法(Method of Multipliers)的算法优越的收敛性。相对于乘子法,ADMM算法最大的优势在于其能够充分利用目标函数的可分解性,对目标函数中的多变量进行交替优化。在解决大规模问题上,利用ADMM算法可以将原问题的目标函数等价地分解成若干个可求解的子问题,然后并行求解每一个子问题,最后协调子问题的解得到原问题的全局解。1

  优化问题
m i n i m i z e   f ( x ) + g ( z ) s u b j e c t   t o   A x + B z = c minimize\ f(x)+g(z) \\ subject\ to\ Ax+Bz=c minimize f(x)+g(z)subject to Ax+Bz=c  其中, x ∈ R n , z ∈ R m , A ∈ R p × n , B ∈ R p × m , c ∈ R p x \in R^n,z \in R^m,A \in R^{p \times n},B \in R^{p \times m},c \in R^p xRn,zRm,ARp×n,BRp×m,cRp,构造拉格朗日函数为
L p ( x , z , λ ) = f ( x ) + g ( z ) + λ T ( A x + B z − c ) L_p(x,z,\lambda )=f(x)+g(z)+\lambda ^{T}(Ax+Bz-c) Lp(x,z,λ)=f(x)+g(z)+λT(Ax+Bzc)  其增广拉格朗日函数(augmented Lagrangian function)
L p ( x , z , λ ) = f ( x ) + g ( z ) + λ T ( A x + B z − c ) + ρ 2 ∣ ∣ A x + B z − c ∣ ∣ 2 L_p(x,z,\lambda )=f(x)+g(z)+\lambda ^{T}(Ax+Bz-c)+ \frac {\rho} {2}||Ax+Bz-c||^{2} Lp(x,z,λ)=f(x)+g(z)+λT(Ax+Bzc)+2ρAx+Bzc2  对偶上升法迭代更新
( x k + 1 , z k + 1 ) = a r g m i n   x , z L p ( x , z , λ k ) λ k + 1 = λ k + ρ ( A x k + 1 + B z k + 1 − c ) (x^{k+1},z^{k+1})=\underset {x,z} {argmin\ } L_p(x,z,\lambda ^k) \\ \lambda ^{k+1}=\lambda ^k+\rho (Ax^{k+1}+Bz^{k+1}-c) (xk+1,zk+1)=x,zargmin Lp(x,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1c)  交替方向乘子法则是在 ( x , z ) (x,z) (x,z)一起迭代的基础上将 x , z x,z x,z分别固定单独交替迭代,即
x k + 1 = a r g m i n   x L p ( x , z k , λ k ) z k + 1 = a r g m i n   z L p ( x k + 1 , z , λ k ) λ k + 1 = λ k + ρ ( A x k + 1 + B z k + 1 − c ) x^{k+1}=\underset {x} {argmin\ }L_p(x,z^k,\lambda ^k) \\ z^{k+1}=\underset {z} {argmin\ }L_p(x^{k+1},z,\lambda ^k) \\ \lambda ^{k+1}=\lambda ^k+\rho (Ax^{k+1}+Bz^{k+1}-c) xk+1=xargmin Lp(x,zk,λk)zk+1=zargmin Lp(xk+1,z,λk)λk+1=λk+ρ(Axk+1+Bzk+1c)  交替方向乘子的另一种等价形式,将残差定义为 r k = A x k + B z k − c r^k=Ax^k+Bz^k-c rk=Axk+Bzkc,同时定义 u k = 1 ρ λ k u^k=\frac {1} {\rho} \lambda ^k uk=ρ1λk作为缩放的对偶变量(dual variable),有
( λ k ) T r k + ρ 2 ∣ ∣ r k ∣ ∣ 2 = ρ 2 ∣ ∣ r k + u k ∣ ∣ 2 − ρ 2 ∣ ∣ u k ∣ ∣ 2 (\lambda ^k)^Tr^k+\frac {\rho} {2} ||r^k||^2=\frac {\rho} {2}||r^k+u^k||^2-\frac {\rho} {2}||u^k||^2 (λk)Trk+2ρrk2=2ρrk+uk22ρuk2  改写 ADMM 的迭代过程
x k + 1 = a r g m i n   x { f ( x ) + ρ 2 ∣ ∣ A x + B z k − c + u k ∣ ∣ 2 } z k + 1 = a r g m i n   z { g ( z ) + ρ 2 ∣ ∣ A x k + 1 + B z − c + u k ∣ ∣ 2 } u k + 1 = u k + A x k + 1 + B z k + 1 − c x^{k+1} =\underset {x} {argmin\ }\bigg\{f(x)+\frac {\rho} {2}||Ax+Bz^k-c+u^k||^2\bigg\} \\[5pt] z^{k+1}=\underset {z} {argmin\ }\bigg\{g(z)+\frac {\rho} {2}||Ax^{k+1}+Bz-c+u^k||^2\bigg\} \\[5pt] u^{k+1}=u^k+Ax^{k+1}+Bz^{k+1}-c xk+1=xargmin {f(x)+2ρAx+Bzkc+uk2}zk+1=zargmin {g(z)+2ρAxk+1+Bzc+uk2}uk+1=uk+Axk+1+Bzk+1c

2. 论文中的表述

在这里插入图片描述
在这里插入图片描述

3. 对论文中的公式进行推导

  为便于推导公式,将论文中的进行简化,参数W和b简记为W,此时的优化问题变为
m i n i m i z e   f ( W i ) + ∑ i = 1 N g ( Z i ) s u b j e c t   t o   W i = Z i , i = 1 , 2 , . . . , N minimize\ f(W_i)+\sum_{i=1}^{N} g(Z_i) \\[4pt] subject\ to\ W_i=Z_i, i=1,2,...,N minimize f(Wi)+i=1Ng(Zi)subject to Wi=Zi,i=1,2,...,N  构造拉格朗日函数为
L p ( w , z , λ ) = f ( w ) + ∑ g ( z ) + λ T ( w − z ) L_p(w,z,\lambda )=f(w)+\sum g(z)+\lambda ^{T}(w-z) Lp(w,z,λ)=f(w)+g(z)+λT(wz)  其增广拉格朗日函数为
L p ( w , z , λ ) = f ( w ) + ∑ g ( z ) + λ T ( w − z ) + ∑ ρ 2 ∣ ∣ w − z ∣ ∣ 2 L_p(w,z,\lambda )=f(w)+\sum g(z)+\lambda ^{T}(w-z)+ \sum \frac {\rho} {2}||w-z||^{2} Lp(w,z,λ)=f(w)+g(z)+λT(wz)+2ρwz2  交替方向乘子法:在(x, z)一起迭代的基础上将 x, z 分别固定,单独交替迭代,即
w k + 1 = a r g m i n   w L p ( w , z k , λ k ) z k + 1 = a r g m i n   z L p ( w k + 1 , z , λ k ) λ k + 1 = λ k + ∑ ρ ( w − z ) w^{k+1}=\underset {w} {argmin\ }L_p(w,z^k,\lambda ^k) \\[4pt] z^{k+1}=\underset {z} {argmin\ }L_p(w^{k+1},z,\lambda ^k) \\[4pt] \lambda ^{k+1}=\lambda ^k+\sum \rho (w-z) wk+1=wargmin Lp(w,zk,λk)zk+1=zargmin Lp(wk+1,z,λk)λk+1=λk+ρ(wz)  定义一个对偶变量
u k = 1 ρ λ k u^k=\frac {1} {\rho} \lambda ^k uk=ρ1λk  改写ADMM的迭代过程
w k + 1 = a r g m i n   w { f ( w ) + ∑ ρ 2 ∣ ∣ w − z k + u k ∣ ∣ 2 } z k + 1 = a r g m i n   z { ∑ g ( z ) + ∑ ρ 2 ∣ ∣ w k + 1 − z + u k ∣ ∣ 2 } u k + 1 = u k + w k + 1 − z k + 1 w^{k+1} =\underset {w} {argmin\ }\bigg\{f(w)+\sum \frac {\rho} {2}||w-z^k+u^k||^2\bigg\} \\[5pt] z^{k+1}=\underset {z} {argmin\ }\bigg\{\sum g(z)+\sum \frac {\rho} {2}||w^{k+1}-z+u^k||^2\bigg\} \\[5pt] u^{k+1}=u^k+w^{k+1}-z^{k+1} wk+1=wargmin {f(w)+2ρwzk+uk2}zk+1=zargmin {g(z)+2ρwk+1z+uk2}uk+1=uk+wk+1zk+1

4. 代码流程

# 初始化参数Z和U
Z, U = initialize_Z_and_U(model)

# 训练model,并更新X,Z,U,损失函数为admm loss
for epoch in range(epochs):
    for data, target in train_loader:
        optimizer.zero_grad()
        output = model(data)
        loss = admm_loss(model, Z, U, output, target)
        loss.backward()
        optimizer.step()
    W = update_W(model)
    Z = update_Z(W, U, percent)
    U = update_U(U, W, Z)

# 对weight进行剪枝,返回 mask
mask = apply_prune(model, percent)

# 对剪枝后的model进行finetune
finetune(model, mask, train_loader, test_loader, optimizer)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

5. 主要函数实现

def admm_loss(args, device, model, Z, U, output, target):
    idx = 0
    loss = F.nll_loss(output, target)
    for name, param in model.named_parameters():
        if name.split('.')[-1] == "weight":
            u = U[idx].to(device)
            z = Z[idx].to(device)
            # 这里就是推导出来的admm的表达式
            loss += args.rho / 2 * (param - z + u).norm()
    return loss
    
def update_W(model):
    W = ()
    for name, param in model.named_parameters():
        if name.split('.')[-1] == "weight":
            W += (param.detach().cpu().clone(),)
    return W
    
def update_Z(W, U, args):
    new_Z = ()
    idx = 0
    for w, u in zip(W, U):
        z = w + u
        pcen = np.percentile(abs(z), 100*args.percent[idx])
        under_threshold = abs(z) < pcen
        # percent剪枝率,小于percent分位数的置为0
        z.data[under_threshold] = 0
        new_Z += (z,)
        idx += 1
    return new_Z
    
def update_U(U, W, Z):
    new_U = ()
    for u, w, z in zip(U, W, Z):
        new_u = u + w - z
        new_U += (new_u,)
    return new_U

def prune_weight(weight, device, percent):
    # to work with admm, we calculate percentile based on all elements instead of nonzero elements.
    weight_numpy = weight.detach().cpu().numpy()
    pcen = np.percentile(abs(weight_numpy), 100*percent)
    under_threshold = abs(weight_numpy) < pcen
    # 非结构化剪枝
    weight_numpy[under_threshold] = 0
    mask = torch.Tensor(abs(weight_numpy) >= pcen).to(device)
    return mask
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47

6. dense vs. prune(finetune)

在这里插入图片描述

结束语

  对论文中算法的推导仅限于自己的理解,可能还存在一些问题,欢迎来评论区交流哦^_^

参考教程


  1. 《分布式机器学习:交替方向乘子法在机器学习中的应用》---- 雷大江著 ↩︎

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/744429
推荐阅读
相关标签
  

闽ICP备14008679号