当前位置:   article > 正文

神经网络学习(2)————线性神经网络以及python实现_线性神经网络 python

线性神经网络 python

一、线性神经网络结构模型

在结构上与感知器非常相似,只是神经元激活函数不同,结构如图所示:

若网络中包含多个神经元节点,就可形成多个输出,这种神经网络可以用一种间接的方式解决线性不可分的问题,方法是用多个线性含糊对区域进行划分,神经结构和解决异或问题如图所示:

              

利用线性神经网络解决线性不可分问题的另一个方法是对神经元添加非线性输入,从而引入非线性成分,这样是原本的输入维度变大。如图所示:

    线性神经网络的学习算法是LMS算法。

 

 

 

 

二、线性神经网络的学习LMS算法

定义第n次迭代产生的误差信号是:

采用均方差作为评价标准:

Q是输入训练样本的个数。线性神经网络的学习目标是找到适当的w,是的误差的均方差mse最小,只要将上市穗w求偏导,再令偏导为0,即可求出mse的极值。

调节权值是在斜面上沿着负梯度的方向对权值进行修正,最终到达最佳权值。

LMS算法的步骤:

其中学习率的选择要保证收敛的条件是:

其中,R是输入向量x的自相关矩阵,

学习率在学习过程中,随学习的进行逐渐下降比始终不变要更加合理,学习率的下降公式为:

LMS算法的一个缺点是,他对输入向量自相关矩阵R的条件数敏感,当一个矩阵的条件数比较大时,矩阵就成为病态矩阵,这种矩阵中的元素做微笑的改变就可能引起线性方程解的很大变化。

在算法上,LMS算法和感知器学习算法没有什么区别,,但是,在感知器算法中,得到的线基本是在刚刚可以区分的位置上,这样使分类边界离一个类别过近,使得系统对于误差更加敏感;但是LMS算法往往处于两类中间的位置。这一区别与两种神经网络的不同传输函数有关。

三、python实现LMS算法

  1. # -*- coding: utf-8 -*-
  2. """
  3. Created on Fri Sep 28 21:42:40 2018
  4. @author: Heisenberg
  5. """
  6. import numpy as np
  7. import matplotlib.pyplot as mpl
  8. a=0.1 ##学习率 0<a<1
  9. X=np.array([[1,1,1],[1,1,0],[1,0,1],[1,0,0]]) ##输入矩阵
  10. D=np.array([1,1,1,0]) ##期望输出结果矩阵
  11. W=(np.random.random(3)-0.5)*2 #随机权重值
  12. expect_e=0.00005 ##期望误差
  13. maxtrycount=20 ##最大尝试次数
  14. ##硬限幅函数(即标准,这个比较简单:输入v大于0,返回1.小于等于0返回-1)
  15. '''
  16. 最后的权重为W([0.1,0.1]),则:0.1x+0.1y=0 ==>y=-x
  17. 即:分类线方程为:y=-x
  18. '''
  19. def sgn(v):
  20. if v>0:
  21. return 1
  22. else:
  23. return 0 ##跟上篇感知器单样本训练的-1比调整成了0,为了测试需要。-1训练不出结果
  24. ##读取实际输出
  25. '''
  26. 这里是两个向量相乘,对应的数学公式:
  27. a(m,n)*b(p,q)=m*p+n*q
  28. 在下面的函数中,当循环中xn=1时(此时W=([0.1,0.1])):
  29. np.dot(W.T,x)=(1,1)*(0.1,0.1)=1*0.1+1*0.1=0.2>0 ==>sgn 返回1
  30. '''
  31. def get_v(W,x):
  32. return sgn(np.dot(W.T,x))##dot表示两个矩阵相乘,求两个向量的点积
  33. ##读取误差值
  34. def get_e(W,x,d):
  35. return d-get_v(W,x)
  36. ##权重计算函数(批量修正)
  37. '''
  38. 对应数学公式: w(n+1)=w(n)+a*x(n)*e
  39. 对应下列变量的解释:
  40. w(n+1) <= neww 的返回值
  41. w(n) <=oldw(旧的权重向量)
  42. a <= a(学习率,范围:0<a<1)
  43. x(n) <= x(输入值)
  44. e <= 误差值或者误差信号
  45. '''
  46. def neww(oldW,d,x,a):
  47. e=get_e(oldW,x,d)
  48. return (oldW+a*x*e,e)
  49. ##修正权值
  50. '''
  51. 此循环的原理:
  52. 权值修正原理(批量修正)==>神经网络每次读入一个样本,进行修正,
  53. 达到预期误差值或者最大尝试次数结束,修正过程结束
  54. '''
  55. cnt=0
  56. while True:
  57. err=0
  58. i=0
  59. for xn in X:
  60. W,e=neww(W,D[i],xn,a)
  61. i+=1
  62. err+=pow(e,2) ##lms算法的核心步骤,即:MES
  63. err/=float(i)
  64. cnt+=1
  65. print("第 %d 次调整后的权值:"%cnt)
  66. print(W)
  67. print("误差:%f"%err)
  68. if err<expect_e or cnt>=maxtrycount:
  69. break
  70. print("最后的权值:",W)
  71. ##输出结果
  72. print("开始验证结果...")
  73. for xn in X:
  74. print("D%s and W%s =>%d"%(xn,W.T,get_v(W,xn)))
  75. ##测试准确性:
  76. print("开始测试...")
  77. test=np.array([1,2,3])
  78. print("D%s and W%s =>%d"%(test,W.T,get_v(W,test)))
  79. test=np.array([1,-3,-5])
  80. print("D%s and W%s =>%d"%(test,W.T,get_v(W,test)))
  81. #输出图像
  82. x1 = [2]
  83. y1 = [3]
  84. x2 = [-3]
  85. y2 = [-5]
  86. k=-W[1]/W[2]
  87. d=-W[0]/W[2]
  88. xdata=np.linspace(-8,8) #x轴的刻度划分一个8个刻度
  89. mpl.figure()#调用函数创建一个绘图对象,并且使他成为当前的绘图对象
  90. mpl.plot(xdata,xdata*k+d,'r')# r代表是红色
  91. mpl.plot(x1,y1,'bo') #x1,y1的俩个点用蓝色圆圈标记
  92. mpl.plot(x2,y2,'yo') #黄色标记
  93. mpl.show()

训练结果:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/151414
推荐阅读
相关标签
  

闽ICP备14008679号