赞
踩
一句话归纳:训练即是用梯度下降法求损失函数取得最小值时神经网络的参数值。梯度下降法,即用梯度(斜率/导数)作为自变量的增量更新自变量,可以找到函数最小值。
1)训练过程,即是调整神经网络权重参数,使输入图片为猫时,猫对应输出接近1,狗对应输出接近0。
2)损失函数:
对于一个输入样本d,有M个输出,(表示神经网络的第k个实际输出值。表示期望输出值。
对于N个样本,,即损失函数,w是所有权重组成的向量。
3)训练,即是求得合适的w值,使损失函数最小。可参考仅有一个变量的函数求最小值问题。
4)一个变量的函数求最小值。
5)求解损失函数E(w)的最小值。
其中,
6)常用的三种梯度下降法:
标准梯度下降法,用所有样本。
随机梯度下降法,每次用一个样本。
小批量梯度下降法,每次用一小部分样本。
7)用梯度下降法求解E(w)的最小值:
8)交叉熵损失函数(用于分类问题):
9)softmax激活函数:
输出在[0,1]区间内,所有输出累加为1。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。