赞
踩
感知机是作为神经网络(深度学习) 的起源的算法。 因此, 学习感知机的构造也就 是学习通向神经网络和深度学习的一种重要思想。
感知机接收多个输入信号, 输出一个信号。 这里所说的“信号”可以想象成电流或河 流那样具备“流动性”的东西。 像电流流过导线, 向前方输送电子一样, 感知机的信 号也会形成流, 向前方输送信息
x1、x2是输入信号, 是输出信号, 、 是权重, 是“神经元” 或者叫节点,输入信号被送往神经元时, 会被分别乘以固定的权重,也叫加权 求和,神经元会计算传送过来的信号的总和。
BP(BackPropagation) 算法是神经网络深度学习中最重要的算法之一,是一种按照误 差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络模型之一 。了解BP算法可以让我们更理解神经网络深度学习模型训练的本质,属于内功修行的部分。
BP算法的核心思想是:学习过程由信号的正向传播和误差的反向传播两个过程组 成。
正向传播:输入层的神经元负责接受外界发来的各种信息,并将信息传递给中间层 神经元,中间隐含层神经元负责将接收到的信息进行处理变换,根据需求处理信息, 实际应用中可将中间隐含层设置为一层或者多层隐含层结构,并通过最后一层的隐含 层将信息传递到输出层,这个过程就是BP神经网络的正向传播过程。
反向传播:当实际输出与理想输出之间的误差超过期望时,就需要进入误差的反向 传播过程。它首先从输出层开始,误差按照梯度下降的方法对各层权值进行修正,并 依次向隐含层、输入层传播。通过不断的信息正向传播和误差反向传播,各层权值会 不断进行调整,这就是神经网络的学习训练。当输出的误差减小到期望程度或者预先 设定的学习迭代次数时,训练结束,BP神经网络完成学习。
如果隐含层中的神经元节点设置过少,结果可能造成神经网络的训练过程收敛 变慢或者不收敛。如果隐层中节点过多,模型的预测精度会提高,但同时网络 拓扑结构过大,收敛速度慢,普遍性会减弱。
隐藏层神经元的设置方法: 如果 BP 神经网络中输入层节点数为 m 个,输出层节点是为 n 个,则由下式式 可推出隐藏层节点数为 s 个。 其中 b 一般为 1-9 的整数。
第一层是输入层,包含两个神经元i1,i2,和截距项b1;第二层是隐含层,包含两个 神经元h1,h2和截距项(偏置系数)b2,用于控制神经元被激活的容易程度,第三层 是输出o1,o2,每条线上标的wi是层与层之间连接的权重,激活函数我们默认为 sigmoid函数。
sigmoid函数:
1. 输入层--->隐含层:
1.计算神经元h1的输入加权和
2.神经元h1的输出o1:(此处用到激活函数为sigmoid函数):
2.隐含层--->输出层:
计算输出层神经元o1和o2的值:
1. 计算总误差
总误差:
但是有两个输出,所以分别计算o1和o2的误差,总误差为两者之和:
2.隐含层---->输出层的权值更新:
以权重参数w5为例,如果我们想知道w5对整体误差产生了多少影响,可以用 整体误差对w5求偏导求出:(链式法则)
下面的图可以更直观的看清楚误差是怎样反向传播的:
这样我们就计算出整体误差E(total)对w5的偏导值。最后我们来更新w5的值:
n为学习率,设置为0.5,可以调整更新的步伐,合适的学习率能够使目标函 数在合适的时间内收敛到局部最小值。学习率设置太小,结果收敛非常缓 慢;学习率设置太大,结果在最优值附近徘徊,难以收敛,一般选取为 0.01−0.8.
同理更新其他参数.
隐含层---->隐含层的权值更新:
方法其实与上面说的差不多,但是有个地方需要变一下,在上文计算总误差对 w5的偏导时,是从out(o1)---->net(o1)---->w5,但是在隐含层之间的权值更新 时,是out(h1)---->net(h1)---->w1,而out(h1)会接受E(o1)和E(o2)两个地方传来的 误差,所以这个地方两个都要计算。
训练到什么时候结束:
设置最大迭代次数,比如使用数据集迭代100次后停止训练 计算训练集在网络上的预测准确率,达到一定门限值后停止训练
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。