赞
踩
在介绍Adam算法之前,先谈谈Adam中两个关键的算法:学习率调整(RMSprop 算法)与梯度估计修正。
学习率是神经网络优化时的重要超参数。在标准的梯度下降法中,每个参数在每次迭代时都使用相同的学习率,但是学习率如果过大就不会收敛,如果过小则收敛速度太慢。
RMSprop 算法是 Geoff Hinton 提出的一种自适应学习率的方法【RMSprop】,可以在有些情况下避免 AdaGrad 算法中学习率不断单调下降以至于过早衰减的缺点。
RMSprop 算法首先计算每次迭代梯度
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。