赞
踩
提示:以下是本篇文章正文内容,下面案例可供参考
梯度下降法(gradient descent)是求解无约束最优化问题的一种最常用的方法,具有实现简单的优点。梯度下降法是迭代算法,每一次需要求解目标函数的梯度向量。
假设 f ( x ) f(x) f(x)是 R n R^n Rn上具有一阶连续偏导数的函数。要求解的无约束最优化问题是
m i n x ∈ R n f ( x ) \underset{x\in{R^n}}{min}f(x) x∈Rnminf(x)
x ∗ x^* x∗为目标函数 f ( x ) f(x) f(x)的极小点。
梯度下降法是迭代算法。选取适当的初值 x ( 0 ) x^(0) x(0),不断迭代,更新x的值,进行目标函数的极小化,直到收敛。由于负梯度方向是使函数值下降最快的方向,在迭代的每一步时,以负梯度方向更新x的值,从而达到减少函数值的目的。
首先,有一个目标函数,假设为 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) J(θ0,θ1)。
我们的目的是获取函数的最小值,即 m i n θ 0 , θ 1 J ( θ 0 , θ 1 ) \underset{\theta_0,\theta_1}{min}J(\theta_0,\theta_1) θ0,θ1minJ(θ0
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。