当前位置:   article > 正文

BP神经网络算法讲解及实战应用(超详细 附源码)_bp算法的应用

bp算法的应用

需要源码请点赞关注收藏后评论区留言私信~~~

多层网络的学习能力比单层感知机强很多,要训练多层网络,简单的感知机学习规则显然不够,需要更强大的学习算法。误差逆传播(Error BackPropagation)算法就是学习算法中的杰出代表。现实任务中使用神经网络时,大多是使用BP算法进行训练。需要注意的是,BP算法不仅可以用于多层前馈神经网络,还可以用于其他类型的神经网络。通常说BP网络时,常指利用BP算法训练的多层前馈神经网络。神经网络可以用于分类(预测给定元组的类标号)和数值预测(预测连续值输出)等

多层前馈神经网络

多层前馈神经网络由一个输入层、一个或多个隐层和一个输出层组成,如图9-5所示。它利用后向传播算法迭代地学习用于元组类标号预测的一组权重

网络中 每层由一些单元组成,网格的输入对应于对每个训练元组的观测属性,输入同时提供给构成输入层的单元,这些输入通过输入层加权求和后提供给称为隐藏层的类神经元的第二层,该隐藏层单元的输出输入到下一个隐藏层,隐藏层的数量是任意的,最后一个隐藏层的权重输出作为构成输出层的单元输入,输出层发布给定元组的网络预测,前馈网络中的权重都不回送到输入单元或者前一层的输出单元,网络是全连接的,即每个单元都向下一层的每个单元提供输入

对于最好的隐藏层单元数,没有明确的规则确定,网络设计是一个反复试验的过程,并可能影响结果训练网络的准确性,权重的初值也可能影响结果的准确性

后向传播算法

后向传播通过迭代地处理训练元组数据集,把每个元组的网络预测与实际已知的目标值相比较进行学习。对于每个训练样本,修改权重使得网络预测和实际目标值之间的均方误差最小。这种修改“后向”进行,即由输出层,经由每个隐层到第一个隐藏层。BP算法的主要思想是把训练过程分为两个阶段

1. 第一阶段(正向传播过程)

2. 第二阶段(反向传播过程)

若在输出层不能得到期望的输出值,那么逐层递归地计算实际输出与期望输出的差值,以便根据差值调节权值。BP算法基于梯度下降(Gradient Descent)策略,以目标的负梯度方向对参数进行调整

 

 

误差反向传播的过程就是将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值,即权值调整的过程,每处理一个样本,就更新权重和偏置,称为实例更新,如果处理完训练集中的所有元组之后再更新权重和偏置,称为周期更新,理论上,反向传播算法的数据推导使用周期更新,但是在实践中,实例更新通常产生更加准确的结果 

BP算法流程图描述如下

BP算法具有简单易行,计算量小和并行性强等优点,是神经网络训练采用最多也最成熟的训练算法之一,算法的实质是求解误差函数的最小值问题,由于它采用非线性规划中的最速下降,按误差的函数的负梯度方向修改权值,因而通常存在学习效率低,收敛速度慢,和容易陷入局部极小状态的缺点

BP神经网络Python应用 

输出结果如下 由输入层权重映射到输出层权重

 部分代码如下

  1. import numpy as np
  2. import math
  3. import random
  4. import string
  5. import matplotlib as mpl
  6. import matplotlib.pyplot as plt
  7. #random.seed(0)
  8. #生成区间[a,b]内的随机数
  9. def random_number(a,b):
  10. return (b-a)*random.random()+a
  11. #生成一个矩阵,大小为m*n,并且设置默认零矩阵
  12. def makematrix(m, n, fill=0.0):
  13. a = []
  14. for i in range(m):
  15. a.append([fill]*n)
  16. return a
  17. #函数sigmoid(),这里采用tanh
  18. def sigmoid(x):
  19. return math.tanh(x)
  20. #函数sigmoid的派生函数
  21. def derived_sigmoid(x):
  22. return 1.0 - x**2
  23. #构造三层BP网络架构
  24. class BPNN:
  25. def __init__(self, num_in, num_hidden, num_out):
  26. #输入层,隐藏层,输出层的结点数
  27. self.num_in = num_in + 1 #增加一个偏置结点
  28. self.num_hidden = num_hidden + 1 #增加一个偏置结点
  29. self.num_out = num_out
  30. #激活神经网络的所有结点(向量)
  31. self.active_in = [1.0]*self.num_in
  32. self.active_hidden = [1.0]*self.num_hidden
  33. self.active_out = [1.0]*self.num_out
  34. #创建权重矩阵
  35. self.wight_in = makematrix(self.num_in, self.num_hidden)
  36. self.wight_out = makematrix(self.num_hidden, self.num_out)
  37. #对权值矩阵赋初值
  38. for i in range(self.num_in):
  39. for j in range(self.num_hidden):
  40. self.wight_in[i][j] = random_number(-0.2, 0.2)
  41. for i in range(self.num_hidden):
  42. for j in range(self.num_out):
  43. self.wight_out[i][j] = random_number(-0.2, 0.2)
  44. #最后建立动量因子(矩阵)
  45. self.ci = makematrix(self.num_in, self.num_hidden)
  46. self.co = makematrix(self.num_hidden, self.num_out)
  47. #信号正向传播
  48. def update(self, inputs):
  49. if len(inputs) != self.num_in-1:
  50. raise ValueError('与输入层结点数不符')
  51. #数据输入输入层
  52. for i in range(self.num_in - 1):
  53. #self.active_in[i] = sigmoid(inputs[i])
  54. #或者先在输入层进行数据处理
  55. self.active_in[i] = inputs[i] #active_in[]是输入数据的矩阵
  56. #数据在隐藏层的处理
  57. for i in range(self.num_hidden - 1):
  58. sum = 0.0
  59. for j in range(self.num_in):
  60. sum = sum + self.active_in[i] * self.wight_in[j][i]
  61. self.active_hidden[i] = sigmoid(sum)
  62. #数据在输出层的处理
  63. for i in range(self.num_out):
  64. sum = 0.0
  65. for j in range(self.num_hidden):
  66. sum = sum + self.active_hidden[j]*self.wight_out[j][i]
  67. self.active_out[i] = sigmoid(sum) #与上同理
  68. return self.active_out[:]
  69. #误差反向传播
  70. def errorbackpropagate(self, targets, lr, m):
  71. #lr是学习率, m是动量因子
  72. if len(targets) != self.num_out:
  73. raise ValueError('与输出层结点数不符!')
  74. #首先计算输出层的误差
  75. out_deltas = [0.0]*self.num_out
  76. for i in range(self.num_out):
  77. error = targets[i] - self.active_out[i]
  78. out_deltas[i] = derived_sigmoid(self.active_out[i])*error
  79. #然后计算隐藏层误差
  80. hidden_deltas = [0.0]*self.num_hidden
  81. for i in range(self.num_hidden):
  82. error = 0.0
  83. for j in range(self.num_out):
  84. error = error + out_deltas[j]* self.wight_out[i][j]
  85. hidden_deltas[i] = derived_sigmoid(self.active_hidden[i])*error
  86. #首先更新输出层权值
  87. for i in range(self.num_hidden):
  88. for j in range(self.num_out):
  89. change = out_deltas[j]*self.active_hidden[i]
  90. self.wight_out[i][j] = self.wight_out[i][j] +lr*change + m*self.co[i][j]
  91. self.co[i][j] = change
  92. #然后更新输入层权值
  93. for i in range(self.num_in):
  94. for i in range(self.num_hidden):
  95. change = hidden_deltas[j]*self.active_in[i]
  96. self.wight_in[i][j] = self.wight_in[i][j] +lr*change + m* self.ci[i][j]
  97. self.ci[i][j] = change
  98. #计算总误差
  99. error = 0.0
  100. for i in range(len(targets)):
  101. error = error + 0.5*(targets[i] - self.active_out[i])**2
  102. return error
  103. #测试
  104. def test(self, patterns):
  105. for i in patterns:
  106. print(i[0], '->', self.update(i[0]))
  107. #权重
  108. def weights(self):
  109. print("输入层权重")
  110. for i in range(self.num_in):
  111. print(self.wight_in[i])
  112. print("输出层权重")
  113. for i in range(self.num_hidden):
  114. print(selfitera):
  115. error[1]],
  116. [[1,6,2],[1]],
  117. [[1,5,1],[0]],
  118. [[1,8,4],[1]]
  119. ]
  120. #创建神经网络,3个输入结点,3个隐藏层结点,1个输出层结点
  121. n = BPNN(3, 3, 1)
  122. n.train(patt)#训练神经网络
  123. n.test(patt) #测试神经网络
  124. n.weights() #查阅权重值
  125. if __name__ == '__main__':
  126. demo()

创作不易 觉得有帮助请点赞关注收藏~~~ 

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号