赞
踩
前言
最近实验集体学习机器学习,其中涉及到梯度下降及其变体,不是很清楚,看了好多资料和博客。在这里整理总结一下。如果哪里写得不对,请大家指正。
批量梯度下降的思路如下:
(1)若我们有m组训练样本,在训练过程中,我们希望误差越小越好,所以来调整参数theta使得代价函数J(θ)尽可能的小。
(2)将J(theta)对theta求偏导,得到每个theta对应的的梯度(J下降最快的方向).
(3)要最小化代价函数,那么我们更新参数theta的时候,就要按每个参数theta梯度的负方向来更新参数,如下:
(2)每个样本的代价函数,对theta求偏导,得到其梯度。求解过程如下:
(3)更新参数theta
注意!!!这样做不如完全梯度下降的精确度高,可能会走很多弯路,但整体趋势是走向minmum,即随机梯度下降并不是沿着J(θ)下降最快的方向收敛,而是震荡的方式趋向极小点。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。