当前位置:   article > 正文

动量梯度下降(Momentum、指数加权平均)、逐参数适应学习率方法(Adagrad、RMSprop、Adam)、学习率退火、归一化/标准化_momentum指数加权平均数

momentum指数加权平均数

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


3.1.3 优化算法

这里我们会介绍三种类型的优化算法,不过很多原理都大同小异。

  • 1、动量更新方法
  • 2、逐参数适应学习率方法
  • 3、二阶方法

3.1.3.1 动量梯度下降(Gradient Descent with Momentum)

  • 目的:解决因鞍点问题带来的梯度更新停止问题。
  • 解决办法:
    • 在随机梯度下降(SGD)中加入指数加权平均数来更新参数的梯度

1、指数加权平均

指数加权平均(Exponentially Weight Average)是一种常用的序列数据处理方式,通常用在序列场景如金融序列分析、温度变化序列分析。

假设给定一个序列,例如北京一年每天的气温值,图中蓝色的点代表真实数据。

那么这样的气温值变化可以理解成优化的过程波动较大,异常较多。那么怎么平缓一些呢,这时候就要用到加权平均值了,如指数加权平均值。首先看一些效果。

使用动量梯度下降时,通过累加过去的梯度值来减少抵达最小值路径上的波动,加速了收敛,因此在横轴方向下降得更快,从而得到图中红色或者紫色的曲线。当前后梯度方向一致时,动量梯度下降能够加速学习;而前后梯度方向不一致时,动量梯度下降能够抑制震荡。

3.1.3.2 逐参数适应学习率方法

前面讨论的方法都是对学习率进行全局地操作,并且对所有的参数都是一样的。

学习率调参是很耗费计算资源的过程,所以很多工作投入到发明能够适应性地对学习率调参的方法,甚至是逐个参数适应学习率调参。很多这些方法依然需要其他的超参数设置,但是其观点是这些方法对于更广范围的超参数比原始的学习率方法有更良好的表现。

  • 对不同的参数,每个参数更新的学习率会自适应本身参数特点进行梯度更新
  • Adagrad
  • RMSprop
  • Adam

1、Adagrad

  • 理解:
    • 小批量随机梯度按元素平方的累加变量st出现在学习率的分母项中。
    • 1、如果目标函数有关自变量中某个参数的偏导数一直都较大,那么该参数的学习率将下降较快;
    • 2、反之,如果目标函数有关自变量中某个参数的偏导数一直都较小,那么该参数的学习率将下降较慢。
    • 然而,由于st一直在累加按元素平方的梯度,自变量中每个元素的学习率在迭代过程中一直在降低(或不变)。所以,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。

2、RMSProp 算法

刚才当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。为了解决这一问题,RMSProp算法对AdaGrad算法做了一点小小的修改。

不同于AdaGrad算法里状态变量st是截至时间步t所有小批量随机梯度gt按元素平方和,RMSProp(Root Mean Square Prop)算法将这些梯度按元素平方做指数加权移动平均

3、Adam算法

Adam 优化算法(Adaptive Moment Estimation,自适应矩估计)将 Momentum 和 RMSProp 算法结合在一起。Adam算法在RMSProp算法基础上对小批量随机梯度也做了指数加权移动平均。

假设用每一个 mini-batch 计算 dW、db,第t次迭代时:

所有优化算法效果对比

  • 收敛对比

  • 鞍点对比

资料来自:Alec Radford做的实验对比

3.1.7 学习率退火

如果设置一个固定的学习率 α

  • 在最小值点附近,由于不同的 batch 中存在一定的噪声,因此不会精确收敛,而是始终在最小值周围一个较大的范围内波动。
  • 如果随着时间慢慢减少学习率 α 的大小,在初期 α 较大时,下降的步长较大,能以较快的速度进行梯度下降;而后期逐步减小 α 的值,即减小步长,有助于算法的收敛,更容易接近最优解。

最常用的学习率退火方法:

  • 1、随步数衰减
  • 2、指数衰减

3.1.8 参数初始化策略与归一化输入

3.1.8.1 参数初始化

3.1.8.2 归一化输入

3.1.9 案例:动量梯度下降与Adam优化算法实现

1、目的

对以下模型进行优化,分别实现动量和Adam进行对比

  1. # LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SIGMOID
  2. z1 = np.dot(W1, X) + b1
  3. a1 = relu(z1)
  4. z2 = np.dot(W2, a1) + b2
  5. a2 = relu(z2)
  6. z3 = np.dot(W3, a2) + b3
  7. a3 = sigmoid(z3)

数据为 train_X, train_Y = sklearn.datasets.make_moons(n_samples=300, noise=.2)创建的简单样本的二分类问题。

2、步骤分析

  • 1、数据读取、模型前向与反向传播代码封装
  • 2、动量梯度和Adam优化算法的实现

3、代码实现

目录结构为optimization和utils,其中utils为封装好的相关函数(如relu,前向、反向传播函数)这些不需要大家再去实现,前面已经讲解过,optimization中有主要训练逻辑,其中需要大家去进行实现两个优化算法。

2、动量梯度和Adam优化算法的接口实现

utils.py

  1. import numpy as np
  2. import sklearn
  3. import sklearn.datasets
  4. def sigmoid(x):
  5. """sigmoid函数
  6. """
  7. s = 1/(1+np.exp(-x))
  8. return s
  9. def relu(x):
  10. """relu函数
  11. """
  12. s = np.maximum(0,x)
  13. return s
  14. def initialize_parameters(layer_dims):
  15. """初始化模型参数函数
  16. """
  17. np.random.seed(3)
  18. parameters = {}
  19. L = len(layer_dims)
  20. for l in range(1, L):
  21. parameters['W' + str(l)] = np.random.randn(layer_dims[l], layer_dims[l-1]) * np.sqrt(2 / layer_dims[l-1])
  22. parameters['b' + str(l)] = np.zeros((layer_dims[l], 1))
  23. return parameters
  24. def compute_cost(a3, Y):
  25. """损失计算函数
  26. """
  27. m = Y.shape[1]
  28. logprobs = np.multiply(-np.log(a3),Y) + np.multiply(-np.log(1 - a3), 1 - Y)
  29. cost = 1./m * np.sum(logprobs)
  30. return cost
  31. def forward_propagation(X, parameters):
  32. """前向传播模型
  33. """
  34. # 获取参数
  35. W1 = parameters["W1"]
  36. b1 = parameters["b1"]
  37. W2 = parameters["W2"]
  38. b2 = parameters["b2"]
  39. W3 = parameters["W3"]
  40. b3 = parameters["b3"]
  41. # LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SIGMOID
  42. z1 = np.dot(W1, X) + b1
  43. a1 = relu(z1)
  44. z2 = np.dot(W2, a1) + b2
  45. a2 = relu(z2)
  46. z3 = np.dot(W3, a2) + b3
  47. a3 = sigmoid(z3)
  48. cache = (z1, a1, W1, b1, z2, a2, W2, b2, z3, a3, W3, b3)
  49. return a3, cache
  50. def backward_propagation(X, Y, cache):
  51. """反向传播计算
  52. """
  53. m = X.shape[1]
  54. (z1, a1, W1, b1, z2, a2, W2, b2, z3, a3, W3, b3) = cache
  55. dz3 = 1./m * (a3 - Y)
  56. dW3 = np.dot(dz3, a2.T)
  57. db3 = np.sum(dz3, axis=1, keepdims = True)
  58. da2 = np.dot(W3.T, dz3)
  59. dz2 = np.multiply(da2, np.int64(a2 > 0))
  60. dW2 = np.dot(dz2, a1.T)
  61. db2 = np.sum(dz2, axis=1, keepdims = True)
  62. da1 = np.dot(W2.T, dz2)
  63. dz1 = np.multiply(da1, np.int64(a1 > 0))
  64. dW1 = np.dot(dz1, X.T)
  65. db1 = np.sum(dz1, axis=1, keepdims = True)
  66. gradients = {"dz3": dz3, "dW3": dW3, "db3": db3,
  67. "da2": da2, "dz2": dz2, "dW2": dW2, "db2": db2,
  68. "da1": da1, "dz1": dz1, "dW1": dW1, "db1": db1}
  69. return gradients
  70. def predict(X, y, parameters):
  71. """预测函数
  72. """
  73. m = X.shape[1]
  74. p = np.zeros((1,m), dtype = np.int)
  75. # 前向计算
  76. a3, caches = forward_propagation(X, parameters)
  77. # 进行概率01转换
  78. for i in range(0, a3.shape[1]):
  79. if a3[0,i] > 0.5:
  80. p[0,i] = 1
  81. else:
  82. p[0,i] = 0
  83. print("Accuracy: " + str(np.mean((p[0,:] == y[0,:]))))
  84. return p
  85. def load_dataset():
  86. np.random.seed(3)
  87. train_X, train_Y = sklearn.datasets.make_moons(n_samples=300, noise=.2)
  88. train_X = train_X.T
  89. train_Y = train_Y.reshape((1, train_Y.shape[0]))
  90. return train_X, train_Y

optimization.py

  1. import numpy as np
  2. import math
  3. import sklearn
  4. import sklearn.datasets
  5. from utils import initialize_parameters, forward_propagation, compute_cost, backward_propagation
  6. from utils import load_dataset, predict
  7. def random_mini_batches(X, Y, mini_batch_size=64, seed=0):
  8. """
  9. 创建每批次固定数量特征值和目标值
  10. """
  11. np.random.seed(seed)
  12. m = X.shape[1]
  13. mini_batches = []
  14. # 对所有数据进行打乱
  15. permutation = list(np.random.permutation(m))
  16. shuffled_X = X[:, permutation]
  17. shuffled_Y = Y[:, permutation].reshape((1, m))
  18. # 循环将每批次数据按照固定格式装进列表当中
  19. num_complete_minibatches = math.floor(
  20. m / mini_batch_size)
  21. # 所有训练数据分成多少组
  22. for k in range(0, num_complete_minibatches):
  23. mini_batch_X = shuffled_X[:, k * mini_batch_size: (k + 1) * mini_batch_size]
  24. mini_batch_Y = shuffled_Y[:, k * mini_batch_size: (k + 1) * mini_batch_size]
  25. mini_batch = (mini_batch_X, mini_batch_Y)
  26. mini_batches.append(mini_batch)
  27. # 最后剩下的样本数量mini-batch < mini_batch_size
  28. if m % mini_batch_size != 0:
  29. mini_batch_X = shuffled_X[:, num_complete_minibatches * mini_batch_size:]
  30. mini_batch_Y = shuffled_Y[:, num_complete_minibatches * mini_batch_size:]
  31. mini_batch = (mini_batch_X, mini_batch_Y)
  32. mini_batches.append(mini_batch)
  33. return mini_batches
  34. def initialize_momentum(parameters):
  35. """
  36. 初始化网络中每一层的动量梯度下降的指数加权平均结果参数
  37. parameters['W' + str(l)] = Wl
  38. parameters['b' + str(l)] = bl
  39. return:
  40. v['dW' + str(l)] = velocity(速度) of dWl
  41. v['db' + str(l)] = velocity(速度) of dbl
  42. """
  43. # 1、得到网络层数
  44. L = len(parameters) // 2
  45. v = {}
  46. # 2、循环每一层去初始化出动量当前更新梯度(历史的梯度加权和)
  47. for l in range(L):
  48. v['dW' + str(l + 1)] = np.zeros(parameters["W" + str(l + 1)].shape)
  49. v['db' + str(l + 1)] = np.zeros(parameters["b" + str(l + 1)].shape)
  50. return v
  51. def update_parameters_with_momentum(parameters, gradients, v, beta, learning_rate):
  52. """
  53. 动量梯度下降算法实现
  54. """
  55. L = len(parameters) // 2
  56. # 根据动量梯度计算公式去得到动量梯度参数更新
  57. for l in range(L):
  58. # 1、计算加权结果
  59. v["dW" + str(l + 1)] = beta * v["dW" + str(l + 1)] + (1 - beta) * (gradients["dW" + str(l + 1)])
  60. v["db" + str(l + 1)] = beta * v["db" + str(l + 1)] + (1 - beta) * (gradients["db" + str(l + 1)])
  61. # 2、梯度更新
  62. parameters["W" + str(l + 1)] = parameters["W" + str(l + 1)] - learning_rate * v["dW" + str(l + 1)]
  63. parameters["b" + str(l + 1)] = parameters["b" + str(l + 1)] - learning_rate * v["db" + str(l + 1)]
  64. return parameters, v
  65. def initialize_adam(parameters):
  66. """
  67. 初始化Adam算法中的参数
  68. """
  69. # 1、网络层数
  70. L = len(parameters) // 2
  71. v = {}
  72. s = {}
  73. # 2、循环层数迭代初始化一个加权结果参数
  74. for l in range(L):
  75. # v初始化
  76. v["dW" + str(l + 1)] = np.zeros(parameters["W" + str(l + 1)].shape)
  77. v["db" + str(l + 1)] = np.zeros(parameters["b" + str(l + 1)].shape)
  78. # s初始化
  79. s["dW" + str(l + 1)] = np.zeros(parameters["W" + str(l + 1)].shape)
  80. s["db" + str(l + 1)] = np.zeros(parameters["b" + str(l + 1)].shape)
  81. return v, s
  82. def update_parameters_with_adam(parameters, gradients, v, s, t, learning_rate=0.01,
  83. beta1=0.9, beta2=0.999, epsilon=1e-8):
  84. """
  85. 更新Adam算法网络的参数
  86. """
  87. # 1、得到网络大小层数
  88. L = len(parameters) // 2
  89. v_corrected = {}
  90. s_corrected = {}
  91. # 2、更新adam的当中的加权结果,修正结果,梯度更新结果
  92. for l in range(L):
  93. # 1、对v计算
  94. # 对梯度进行移动平均计算。 输入:v, gradients, beta1, 输出:v
  95. v["dW" + str(l + 1)] = beta1 * v["dW" + str(l + 1)] + (1 - beta1) * gradients["dW" + str(l + 1)]
  96. v["db" + str(l + 1)] = beta1 * v["db" + str(l + 1)] + (1 - beta1) * gradients["db" + str(l + 1)]
  97. # 进行修正计算
  98. v_corrected["dW" + str(l + 1)] = v["dW" + str(l + 1)] / (1 - np.power(beta1, t))
  99. v_corrected["db" + str(l + 1)] = v["db" + str(l + 1)] / (1 - np.power(beta1, t))
  100. # 2、对s计算
  101. # 对平方梯度移动平均值,输入:s, gradients, beta2, 输出:s
  102. s["dW" + str(l + 1)] = beta2 * s["dW" + str(l + 1)] + (1 - beta2) * np.power(gradients["dW" + str(l + 1)], 2)
  103. s["db" + str(l + 1)] = beta2 * s["db" + str(l + 1)] + (1 - beta2) * np.power(gradients["db" + str(l + 1)], 2)
  104. # 进行修正计算
  105. s_corrected["dW" + str(l + 1)] = s["dW" + str(l + 1)] / (1 - np.power(beta2, t))
  106. s_corrected["db" + str(l + 1)] = s["db" + str(l + 1)] / (1 - np.power(beta2, t))
  107. # 3、梯度更新结果计算
  108. parameters["W" + str(l + 1)] = parameters["W" + str(l + 1)] - learning_rate * \
  109. v_corrected["dW" + str(l + 1)] / np.sqrt(s_corrected["dW" + str(l + 1)] + epsilon)
  110. parameters["b" + str(l + 1)] = parameters["b" + str(l + 1)] - learning_rate * \
  111. v_corrected["db" + str(l + 1)] / np.sqrt(s_corrected["db" + str(l + 1)] + epsilon)
  112. return parameters, v, s
  113. def model(X, Y, layers_dims, optimizer, learning_rate=0.0007, mini_batch_size=64, beta=0.9,
  114. beta1=0.9, beta2=0.999, epsilon=1e-8, num_epochs=10000, print_cost=True):
  115. """
  116. 模型逻辑
  117. """
  118. # 1、计算网络的层数
  119. L = len(layers_dims)
  120. costs = []
  121. t = 0
  122. seed = 10
  123. # 2、初始化网络结构
  124. parameters = initialize_parameters(layers_dims)
  125. # 初始化优化器参数
  126. if optimizer == "momentum":
  127. v = initialize_momentum(parameters)
  128. elif optimizer == "adam":
  129. v, s = initialize_adam(parameters)
  130. # 3、优化过程
  131. for i in range(num_epochs):
  132. # 每次迭代所有样本顺序打乱不一样
  133. seed = seed + 1
  134. # 获取每批次数据
  135. minibatches = random_mini_batches(X, Y, mini_batch_size, seed)
  136. for minibatch in minibatches:
  137. # 获取批次的特征数据
  138. (minibatch_X, minibatch_y) = minibatch
  139. # 1、前向传播
  140. a3, cache = forward_propagation(minibatch_X, parameters)
  141. # 2、计算损失
  142. cost = compute_cost(a3, minibatch_y)
  143. # 3、反向传播计算梯度
  144. gradients = backward_propagation(minibatch_X, minibatch_y, cache)
  145. # 4、选择优化算法进行梯度更新
  146. if optimizer == "momentum":
  147. parameters, v = update_parameters_with_momentum(parameters, gradients, v, beta, learning_rate)
  148. elif optimizer == "adam":
  149. t = t + 1
  150. parameters, v, s = update_parameters_with_adam(parameters, gradients, v, s, t, learning_rate, beta1, beta2, epsilon)
  151. # 每个1000批次打印损失
  152. if print_cost and i % 1000 == 0:
  153. print("第 %i 次迭代的损失值: %f" % (i, cost))
  154. if print_cost and i % 100 == 0:
  155. costs.append(cost)
  156. return parameters, costs
  157. if __name__ == '__main__':
  158. train_X, train_Y = load_dataset()
  159. print(train_X, train_Y)
  160. layers_dims = [train_X.shape[0], 5, 2, 1]
  161. parameters, costs = model(train_X, train_Y, layers_dims, optimizer="adam")
  162. predictions = predict(train_X, train_Y, parameters)
  163. parameters, costs = model(train_X, train_Y, layers_dims, optimizer="momentum")
  164. predictions = predict(train_X, train_Y, parameters)
  • 运行效果如下
  1. # adam算法优化效果
  2. 0 次迭代的损失值: 0.690552
  3. 1000 次迭代的损失值: 0.185501
  4. 2000 次迭代的损失值: 0.150830
  5. 3000 次迭代的损失值: 0.074454
  6. 4000 次迭代的损失值: 0.125959
  7. 5000 次迭代的损失值: 0.104344
  8. 6000 次迭代的损失值: 0.100676
  9. 7000 次迭代的损失值: 0.031652
  10. 8000 次迭代的损失值: 0.111973
  11. 9000 次迭代的损失值: 0.197940
  12. Accuracy: 0.94
  13. # momentum算法优化效果
  14. 0 次迭代的损失值: 0.690741
  15. 1000 次迭代的损失值: 0.685341
  16. 2000 次迭代的损失值: 0.647145
  17. 3000 次迭代的损失值: 0.619594
  18. 4000 次迭代的损失值: 0.576665
  19. 5000 次迭代的损失值: 0.607324
  20. 6000 次迭代的损失值: 0.529476
  21. 7000 次迭代的损失值: 0.460936
  22. 8000 次迭代的损失值: 0.465780
  23. 9000 次迭代的损失值: 0.464740
  24. Accuracy: 0.7966666666666666

3.1.10 总结

  • 局部最优问题、鞍点与海森矩阵
  • 批梯度下降算法的优化
  • 三种类型的优化算法
  • 学习率退火策略
  • 参数初始化策略与输入归一化策略

局部最优与梯度消失爆炸问题


Adam与SGD对比

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/338845
推荐阅读
相关标签
  

闽ICP备14008679号