当前位置:   article > 正文

python 神经网络预测结果画图_用示例一步步解释BP反向传播神经网络

python神经网络输出与结果对比图

Python中的反向传播

可以试用编写的Python脚本,该脚本在此Github存储库中实现了反向传播算法。

反向传播代码:https://github.com/mattm/simple-neural-network

反向传播可视化

要获得显示神经网络的交互式可视化效果,请查看神经网络可视化:

http://www.emergentmind.com/neural-network

总览

在本教程中,我们将使用具有两个输入,两个隐藏的神经元,两个输出神经元的神经网络。另外,隐藏和输出的神经元将包括偏差。

基本结构如下:

638a1c5b0f2a7adf7aa223ce9c550778.png

为了获得一些数字,下面是初始权重,偏差和训练输入/输出:

490cfa9db8728ec6ebaa239d18b25433.png

反向传播的目标是优化权重,以便神经网络可以学习如何正确地将任意输入映射到输出。

对于本教程的其余部分,我们将使用单个训练集:给定输入0.05和0.10,我们希望神经网络输出0.01和0.99。

前进通道

首先,让我们看看在上述权重和偏差以及输入为0.05和0.10的情况下,神经网络目前预测的结果。

为此,我们将通过网络提供这些输入。我们计算出每个隐含层神经元的总输入,使用激活函数(这里我们使用逻辑函数)压缩总输入,然后对输出层神经元重复这个过程。

69854e9cf81e57ba9adf595c6055e6a9.png
df6f4a47b2c6a0a8564ece3d44236342.png

计算总误差

现在,我们可以使用平方误差函数计算每个输出神经元的误差,并对它们求和以获得总误差:

b3e698ba0962b87acb0ad0c6ab0cea12.png

该1/2包括在内,以便我们以后区分该指数被取消。无论如何,最终结果还是要乘以学习率,因此我们在此处引入常数[ 1 ] 都没关系。

67fc97dac8a1a757d02185ea8d1e760d.png

向后通行

我们反向传播的目标是更新网络中的每个权重,以便它们使实际输出更接近目标输出,从而将每个输出神经元和整个网络的误差最小化。

输出层

707759ca76f7e097e6a8932c65505f34.png
6a35185bbe72abbbe34cc13867dc509d.png
d5e67cd578ec265f53da1232a82d17bd.png
e2e80b569fc4d704cbc4ff11e5fa7ab9.png
96354a0eea11e156c22cc8afcf6b3b28.png
e6733c64ae94810a3973c884eeea61ce.png
88cd7e0aaee40cd5ed578be78f0a77b5.png
a45a1c3c613d618673126abcb2a4f84c.png
54af497af6768f825a6e2b1b945ef307.png
e8a88e0c99b68fe77d228e6821c27435.png
08536f86476725c48436f0fee6b6ede3.png
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/405681
推荐阅读
相关标签
  

闽ICP备14008679号