当前位置:   article > 正文

神经网络——Python实现BP神经网络算法(理论+例子+程序)_bp神经网络python

bp神经网络python

一、基于BP算法的多层感知器模型

采用BP算法的多层感知器是至今为止应用最广泛的神经网络,在多层感知器的应用中,以图3-15所示的单隐层网络的应用最为普遍。一般习惯将单隐层前馈网称为三层感知器,所谓三层包括了输入层、隐层和输出层。

神经网络——Python实现BP神经网络算法

神经网络——Python实现BP神经网络算法

算法最终结果采用梯度下降法,具体详细过程此处就省略了!

二、BP算法的程序实现流程

神经网络——Python实现BP神经网络算法

三、标准BP算法的改进——增加动量项

标准BP算法在调整权值时,只按t时刻误差的梯度降方向调整,而没有考虑t时刻以前的梯度方向,从而常使训练过程发生振荡,收敛缓慢。为了提高网络的训练速度,可以在权值调整公式中增加一动量项。若用W代表某层权矩阵,X代表某层输入向量,则含有动量项的权值调整向量表达式为

神经网络——Python实现BP神经网络算法

可以看出,增加动量项即从前一次权值调整量中取出一部分迭加到本次权值调整量中,α称为动量系数,一般有a∈ (0,1)。动量项反映了以前积累的调整经验,对于t时刻的调整起阻尼作用。当误差曲面出现骤然起伏时,可减小振荡趋势,提高训练速度。目前,BP算法中都增加了动量项,以致于有动量项的BP算法成为一种新的标准算法。

四、Python实现BP神经网络及其学习算法

这里为了运用算法,简要的举了一个例子(不需归一化或标准化的例子)

输入 X=-1:0.1:1;
输出 D=.....(具体查看代码里面的数据)

为了便于查看结果我们输出把结果绘制为图形,如下:

神经网络——Python实现BP神经网络算法

其中黄线和蓝线代表着训练完成后的输出与输入

五、程序如下:

  1. # -*- coding: utf-8 -*-
  2. import math
  3. import string
  4. import matplotlib as mpl
  5. ############################################调用库(根据自己编程情况修改)
  6. import numpy.matlib
  7. import numpy as np
  8. np.seterr(divide='ignore',invalid='ignore')
  9. import matplotlib.pyplot as plt
  10. from matplotlib import font_manager
  11. import pandas as pd
  12. import random
  13. #生成区间[a,b]内的随机数
  14. def random_number(a,b):
  15. return (b-a)*random.random()+a
  16. #生成一个矩阵,大小为m*n,并且设置默认零矩阵
  17. def makematrix(m, n, fill=0.0):
  18. a = []
  19. for i in range(m):
  20. a.append([fill]*n)
  21. return np.array(a)
  22. #函数sigmoid(),两个函数都可以作为激活函数
  23. def sigmoid(x):
  24. #return np.tanh(x)
  25. return (1-np.exp(-1*x))/(1+np.exp(-1*x))
  26. #函数sigmoid的派生函数
  27. def derived_sigmoid(x):
  28. return 1-(np.tanh(x))**2
  29. #return (2*np.exp((-1)*x)/((1+np.exp(-1*x)**2)))
  30. #构造三层BP网络架构
  31. class BPNN:
  32. def __init__(self, num_in, num_hidden, num_out):
  33. #输入层,隐藏层,输出层的节点数
  34. self.num_in = num_in + 1 #增加一个偏置结点
  35. self.num_hidden = num_hidden + 1 #增加一个偏置结点
  36. self.num_out = num_out
  37. #激活神经网络的所有节点(向量)
  38. self.active_in = np.array([-1.0]*self.num_in)
  39. self.active_hidden = np.array([-1.0]*self.num_hidden)
  40. self.active_out = np.array([1.0]*self.num_out)
  41. #创建权重矩阵
  42. self.wight_in = makematrix(self.num_in, self.num_hidden)
  43. self.wight_out = makematrix(self.num_hidden, self.num_out)
  44. #对权值矩阵赋初值
  45. for i in range(self.num_in):
  46. for j in range(self.num_hidden):
  47. self.wight_in[i][j] = random_number(0.1, 0.1)
  48. for i in range(self.num_hidden):
  49. for j in range(self.num_out):
  50. self.wight_out[i][j] = random_number(0.1, 0.1)
  51. #偏差
  52. for j in range(self.num_hidden):
  53. self.wight_in[0][j] = 0.1
  54. for j in range(self.num_out):
  55. self.wight_in[0][j] = 0.1
  56. #最后建立动量因子(矩阵)
  57. self.ci = makematrix(self.num_in, self.num_hidden)
  58. self.co = makematrix(self.num_hidden, self.num_out)
  59. #信号正向传播
  60. def update(self, inputs):
  61. if len(inputs) != self.num_in-1:
  62. raise ValueError('与输入层节点数不符')
  63. #数据输入输入层
  64. self.active_in[1:self.num_in]=inputs
  65. #数据在隐藏层的处理
  66. self.sum_hidden=np.dot(self.wight_in.T,self.active_in.reshape(-1,1)) #点乘
  67. self.active_hidden=sigmoid(self.sum_hidden) #active_hidden[]是处理完输入数据之后存储,作为输出层的输入数据
  68. self.active_hidden[0]=-1
  69. #数据在输出层的处理
  70. self.sum_out=np.dot(self.wight_out.T,self.active_hidden) #点乘
  71. self.active_out = sigmoid(self.sum_out) #与上同理
  72. return self.active_out
  73. #误差反向传播
  74. def errorbackpropagate(self, targets, lr,m): #lr是学习率
  75. if self.num_out==1:
  76. targets=[targets]
  77. if len(targets) != self.num_out:
  78. raise ValueError('与输出层节点数不符!')
  79. #误差
  80. error=(1/2)*np.dot((targets.reshape(-1,1)-self.active_out).T,(targets.reshape(-1,1)-self.active_out))
  81. #输出误差信号
  82. self.error_out=(targets.reshape(-1,1)-self.active_out)*derived_sigmoid(self.sum_out)
  83. #隐层误差信号
  84. #self.error_hidden=np.dot(self.wight_out.reshape(-1,1),self.error_out.reshape(-1,1))*self.active_hidden*(1-self.active_hidden)
  85. self.error_hidden=np.dot(self.wight_out,self.error_out)*derived_sigmoid(self.sum_hidden)
  86. #更新权值
  87. #隐藏
  88. self.wight_out=self.wight_out+lr*np.dot(self.error_out,self.active_hidden.reshape(1,-1)).T+m*self.co
  89. self.co=lr*np.dot(self.error_out,self.active_hidden.reshape(1,-1)).T
  90. #输入
  91. self.wight_in=self.wight_in+lr*np.dot(self.error_hidden,self.active_in.reshape(1,-1)).T+m*self.ci
  92. self.ci=lr*np.dot(self.error_hidden,self.active_in.reshape(1,-1)).T
  93. return error
  94. #测试
  95. def test(self, patterns):
  96. for i in patterns:
  97. print(i[0:self.num_in-1], '->', self.update(i[0:self.num_in-1]))
  98. return self.update(i[0:self.num_in-1])
  99. #权值
  100. def weights(self):
  101. print("输入层权重")
  102. print(self.wight_in)
  103. print("输出层权重")
  104. print(self.wight_out)
  105. def train(self, pattern, itera=100, lr = 0.2, m=0.1):
  106. for i in range(itera):
  107. error = 0.0
  108. for j in pattern:
  109. inputs = j[0:self.num_in-1]
  110. targets = j[self.num_in-1:]
  111. self.update(inputs)
  112. error = error+self.errorbackpropagate(targets, lr,m)
  113. if i % 10 == 0:
  114. print('########################误差 %-.5f######################第%d次迭代' %(error,i))
  115. #实例
  116. X=list(np.arange(-1,1.1,0.1))
  117. D=[-0.96, -0.577, -0.0729, 0.017, -0.641, -0.66, -0.11, 0.1336, -0.201, -0.434, -0.5, -0.393, -0.1647, 0.0988, 0.3072, 0.396, 0.3449, 0.1816, -0.0312, -0.2183, -0.3201]
  118. A=X+D
  119. patt=np.array([A]*2)
  120. #创建神经网络,21个输入节点,21个隐藏层节点,1个输出层节点
  121. n = BPNN(21, 21, 21)
  122. #训练神经网络
  123. n.train(patt)
  124. #测试神经网络
  125. d=n.test(patt)
  126. #查阅权重值
  127. n.weights()
  128. plt.plot(X,D)
  129. plt.plot(X,d)
  130. plt.show()

来源:小凌のBlog—Good Times|一个不咋地的博客

[1]   韩力群,人工神经网络理论及应用 [M]. 北京:机械工业出版社,2016.

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/94763
推荐阅读
相关标签
  

闽ICP备14008679号