赞
踩
假设a为神经网络的参数(实际上代表W和b),f(x)表示在给定的参数取值下,训练数据集损失函数的大小,整个神经网络的优化过程可以抽象为寻找一个参数x,使f(x)最小。
其梯度是,在定义一个学习率n,来定义每次更新的幅度,也可以说是每次参数移动的幅度。由此得到参数的更新公式:
举个例子假设损失函数是,首先随机产生一个参数x的初始值,然后在通过梯度和学习率来更新参数x的取值。例子中梯度为x,假设参数的初始值为4,学习率为0.2,优化过程如下
通过这样一步步的训练,来更新参数
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。