当前位置:   article > 正文

机器学习算法(九):神经网络(neural networks,NN)_神经网络算法

神经网络算法

目录

1 什么是神经网络

1.1 神经元模型

1.2 感知机

1.3 多层神经网络

1.4 为什么要使用神经网络

2 神经网络目标函数

2.1 交叉熵代价函数(二分类交叉熵解决多分类问题)

2.2 交叉熵代价函数(多分类交叉熵)+ softmax函数

2.3 均方误差

3 神经网络优化算法(误差逆传播算法,BP)

3.1 前向传播

3.2 使用交叉熵代价函数(二分类交叉熵形式)反向传播

3.2.1 反向传播

3.2.2 ’误差’的计算

3.2.3 反向传播的推导

3.3 使用交叉熵代价函数(多分类交叉熵形式)+softmax函数进行反向传播

3.3.1 算法步骤

3.3.2 反向传播的推导

3.4 使用均方误差函数反向传播

3.4.1 反向传播步骤

3.4.2 反向传播的推导

4 神经网络算法步骤

5 神经网络算法分析

6 对比均方误差和交叉熵(二分类)

7 实例(均方误差函数)

7.1 前馈的实质

7.1.1 初始化权重和输入信号

7.1.2 输入层到隐藏层

7.1.3 隐藏层到输出层

7.2 反向传播的实质

7.2.1 计算总误差(使用均方误差)

7.2.2 隐藏层和输出层的权重更新

7.2.3 输入层和隐藏层的权重更新

 8 python实现


1 什么是神经网络

        人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似

  神经网络主要由:输入层隐藏层输出层构成。当隐藏层只有一层时,该网络为两层神经网络,由于输入层未做任何变换,可以不看做单独的一层。实际中,网络输入层的每个神经元代表了一个特征,输出层个数代表了分类标签的个数(在做二分类时,如果采用sigmoid分类器,输出层的神经元个数为1个;如果采用softmax分类器,输出层神经元个数为2个;如果是多分类问题,即输出类别>=3时,输出层神经元为类别个数),而隐藏层层数以及隐藏层神经元是由人工设定。一个基本的两层神经网络可见下图(注意:说神经网络多少层数的时候一般不包括输入层。 在神经网络中的激活主要讲的是梯度的更新的激活):

                                          图1 两层神经网络

1.1 神经元模型

        神经网络的最基本的构成元素是神经元(Neuron),也就是Kohonen的定义中的简单单元。学过生物的都知道,人的大脑中有上亿个神经元构成神经网络,生物神经网络中各个网络之间相互连接,通过神经递质相互传递信息。如果某个神经元接收了足够多的神经递质(乙酰胆碱),那么其点位变会积累地足够高,从而超过某个阈值(Threshold)。超过这个阈值之后,这个神经元变会被激活,达到兴奋的状态,而后发送神经递质给其他的神经元

        1943年,McCulloch和Pitts将生物神经网络工作的原理抽象成了一个简单的机器学习模型——MP神经元模型

     

                                                                            图2  MP神经元模型

        MP神经元模型接收来自n个其他神经元传递过来的输入信号(x1~xn),这些输入信号通过带权重θω来表示权重,上图采用θ)的连接(Connection)进行传递,然后神经元(图示阈值为b)收到的总输入(所有输入和权重的乘积的和)与神经元的阈值b比较,并经由激活函数(Activation Function,又称响应函数)处理之后产生神经元的输出。

        理想情况下,激活函数的形式应为阶跃函数(也就是修正线性单元ReLU)。如下图所示:

               

                                 图3 阶跃函数

       即输出有0或1两种,表示神经元不兴奋,1 则表示神经元兴奋。但阶跃函数不光滑不连续,因此对于激活函数的选择通常会选择S函数(Sigmoid Function)。

S函数的相关内容,详见机器学习算法(一):逻辑回归模型(Logistic Regression, LR)_意念回复的博客-CSDN博客_逻辑回归模型

       S函数的定义如下所示:

                     

       其函数曲线图像如下:

              

                                        图4 S函数曲线

        从函数图像可以明显看出,函数的值域是(0,1)。即函数值落在0到1之间。S函数的性质有可以将较大范围内变化的输入值压缩到(0,1)区间内,因此也被成为挤压函数(Squashing Function)

        通过把很多个神经单元按照一定的层次连接起来,便得到了一个神经网络

1.2 感知机

        感知机(Perceptron)是由两层神经元所构成。

              

                              图5 由两层神经元构成的感知机

        如图所示,输入层接收输入信号之后传输给输出层输出层阈值逻辑单元MP神经元)。通过感知机可以轻易地实现逻辑与、或、非运算。
        通过感知机实现逻辑运算,在MP神经元模型中,有输出:

                

          假设激活函数为阶跃函数sgn(x):

                    
        则逻辑运算实现如下:

  • 逻辑“”(x1∧x2):令权重ω1=ω2=1,阈值b=2,则y=f(1x1 + 1x2 -2),当且仅当x1=x2=1时,y=1;
  • 逻辑“”(x1∨x2):令权重ω1=ω2=1,阈值b=0.5,则y=f(1x1 + 1x2 -0.5),当x1 = 1 或 x2=1时,y=1;
  • 逻辑“”(﹁x1):令权重ω1=-0.6 ω2=0,阈值b=-0.5,则y=f(-0.6*x1 + 0.5),当x1=1时,y=0,当x1=0时,y=1。

        我们通过制定权重阈值得到了可以进行逻辑运算感知机,那么如果给定训练数据集,同样我们可以通过学习得到相应地权重和阈值。
        阈值b可以看做是一个输入固定为-1.0对应连接权重ωn+1的哑结点。通过这样定义阈值,则可以将学习权重阈值简化为只学习权重

        感知机的学习规则很简单,对于训练样本(x,y),若感知机当前的输出为y',则感知机的权重调整如下:

                

                 

        其中,η学习速率。若感知机对样本的预测正确的话,即y'=y,则感知机不发生任何变化。若其预测错误,则根据错误的程度进行相应权重的调整。

        感知机中,只有输出层神经元进行激活函数的处理,也就是说感知机只有一层功能神经元(Functional Neuron),因此感知机的学习能力有限。实际上,通过感知机所实现的逻辑运算都是线性可分问题。

        若两类模式是线性可分的,那么存在一个线性超平面能将其分开,则感知机的学习过程一定会收敛从而得到合适的权向量:

         

        否则,感知机在学习的过程中会产生震荡,从而无法得到稳定的权向量,从而使得感知机无法求解。也就是说,感知机无法解决像是“异或XOR”异或是非线性可分的问题)这样的非线性问题。

          

               图6 线性可分的“与”、“或”、“非”问题与非线性可分的“异或”问题

        如上图中,左面三个是通过线性分割实现,而最右侧的异或则无法通过线性分割实现。

1.3 多层神经网络

                                      图7 基本的两层神经网络

        其中  为输入层的值, ,表示第 k 层中,第 i 个神经元激活值(该神经元的输出), 表示第 k 层的神经元个数。当 k=1时即为输入层,即  ,而   为偏置项。

        为了求最后的输出值 ,我们需要计算隐藏层中每个神经元的激活值 。而隐藏层/输出层的每一个神经元,都是由上一层神经元经过类似逻辑回归计算而来。我们可以使用下图进行理解:

           

                             图7 基本的两层神经网络(带权重)

        我们使用  来表示第 k 层的参数(边权),其中下标 j 表示第 k+1 层第 j 个神经元i 表示第 k 层第 i 个神经元。于是我们可以计算出隐藏层的三个激活值

            

        再将隐藏层的三个激活值以及偏置项 用来计算出输出层神经元的激活值即为该神经网络的输出:

             

       其中 g(z) 非线性变换函数(激活函数)

相关矩阵的维度:

  • w[i]=[n[i], n[i-1]],维度是:n[i]行,n[i-1]列。从图中可知行数是本层神经元的数量,列数是前一层神经元的数量。
  • b[i]=[n[i], 1],维度是:n[i]行,1列
  • a[i]=z[i]=[n[i], 1],维度是:n[i]行,1列。由正向传播公式:a[i]=g[i](z[i]),可知a与z的维度是相同的。
  • a[0]:输入层,a[i] :第 i+1 层的输入

1.4 为什么要使用神经网络

        首先,神经网络应用在分类问题中效果很好。 工业界中分类问题居多。LR 或者 linear SVM 更适用线性分类。如果数据非线性可分(现实生活中多是非线性的),LR 通常需要靠特征工程特征映射,增加高斯项或者组合项SVM需要选择。 而增加高斯项组合项会产生很多没有用的维度,增加计算量。GBDT 可以使用弱的线性分类器组合成强分类器,但维度很高时效果可能并不好。而神经网络在三层及以上时,能够很好地进行非线性可分。现在我们使用下面的例子进行一下解释。
  有这样一组样本,如下图:

                   

        若我们需要对上图中的样本进行分类,直观来看,很难找到一条线性分类边界对其进行分类,而观察上表中的输入输出值,我们可以看出分类结果与输入值是异或关系。而逻辑回归可以通过改变参数,来实现“与”、“或”、“非”简单操作
  (1)我们先来观察一下逻辑回归实现逻辑“与”操作,假设模型函数如下:

               

                对应结构与结果为:

               

        (2)逻辑回归实现逻辑“或非”操作,假设模型函数如下:

               

                对应结果为:

                  

           (3)逻辑回归实现逻辑“或”操作,假设模型函数如下:

                 对应结果为:

                    

     观察(1)(2)中的  与  的值,通过“或”操作,便能够得到“异或”操作的结果。

                       

       也就是说,若将三个逻辑回归操作进行叠加,便能够对上述例子进行非线性分类。大致结构图可理解为下:

                 
        而对线性分类器的逻辑与和逻辑或的组合可以完美的对平面样本进行分类。

                            

        隐层决定了最终的分类效果 :

              

        由上图可以看出,随着隐层层数的增多,凸域将可以形成任意的形状,因此可以解决任何复杂的分类问题。实际上,Kolmogorov理论指出:双隐层感知器就足以解决任何复杂的分类问题
  于是我们可以得出这样的结论:神经网络通过将线性分类器进行组合叠加,能够较好地进行非线性分类

2 神经网络目标函数

        同样的,对于神经网络我们也需要知道其目标函数,才能够对目标函数进行优化从而学习到参数。

2.1 交叉熵代价函数(二分类交叉熵解决多分类问题)

        假设神经网络的输出层只有一个神经元,该网络有 K 层,则其目标函数为(若不止一个神经元,每个输出神经元的目标函数类似,仅仅是参数矩阵的不同):

      

        其中 倒数第2层的激活值,作为输出层的输入值。而其值为 ,  为实际分类结果 0/1 , 样本数 为第 k 层的神经元个数。

        代价函数参考逻辑回归:机器学习算法(一):逻辑回归模型(Logistic Regression, LR)_意念回复的博客-CSDN博客_逻辑回归模型

注:

        在吴恩达的机器学习视频中,当输出只有两种可能,即输出层神经元只有一个节点时,代价函数如下:

        其中,样本数,为输出层神经元的输出值。

        当输出有三种及以上种可能时,即输出层神经元有三个及以上节点时,(多分类问题),代价函数如下:

        此处的K与上文的K含义不同,此处的K为输出的类别数,即输出层神经元的个数

2.2 交叉熵代价函数(多分类交叉熵)+ softmax函数

softmax函数:

            

SoftMax函数:SoftMax函数_意念回复的博客-CSDN博客_softmax函数图像

SoftMax函数的推导(广义线性模型):指数分布族函数与广义线性模型(Generalized Linear Models,GLM)_意念回复的博客-CSDN博客_广义线性模型连接函数

多分类交叉熵:

熵:信息熵、相对熵、交叉熵_意念回复的博客-CSDN博客

            

2.3 均方误差

             

      K为输出的类别数,即输出层神经元的个数。m 样本数

3 神经网络优化算法(误差逆传播算法,BP)

        神经网络普通的分类器不同,其是一个巨大的网络,最后一层的输出每一层的神经元都有关系。而神经网络每一层,与下一层之间,都存在一个参数矩阵。我们需要通过优化算法求出每一层的参数矩阵,对于一个有 层的神经网络,我们共需要求解出 K−1 个参数矩阵。因此我们无法直接对目标函数进行梯度的计算来求解参数矩阵
  对于神经网络的优化算法,主要需要两步:前向传播(Forward Propagation)反向传播(Back Propagation)。

3.1 前向传播

        前向传播就是从输入层输出层,计算每一层每一个神经元的激活值。也就是先随机初始化每一层的参数矩阵,然后从输入层开始,依次计算下一层每个神经元的激活值,一直到最后计算输出层神经元的激活值。

以下面这个例子来看:

前向传播计算激活值的过程:

(1)随机初始化参数矩阵

                                

(2)计算隐藏层的每个神经元激活值:

             

              

        即:

              

(3)计算输出层的每个神经元激活值:

             

       即:

             

3.2 使用交叉熵代价函数(二分类交叉熵形式)反向传播

3.2.1 反向传播

       反向传播总的来说就是根据前向传播计算出来的激活值,来计算每一层参数的梯度,并从后往前进行参数的更新。
  在介绍反向传播的计算步骤之前,我们先引入一个概念---除输入层外每个神经元节点的“损失” , 表示第 k 层第 j 个神经元的损失。
  于是我们可以计算求得(除输入层)每一层神经元的损失(以上一个例子来解释):

             

        其中  为实际值。向量化表示如下:

             

             

         其中 ⋅∗ 表示两个矩阵对应位置上元素相乘,  是对函数求导。而

            

        由上可看出,第二层的损失  是基于第三层的损失  计算而来。也就是说,我们可以先计算第三层的损失并对第二层的参数矩阵进行更新,再利用第三层的损失计算第二层的损失以及更新第一层的参数矩阵至于为何可以这样进行,将在后面进行证明)。
  于是,基于反向传播算法的梯度更新步骤如下:

  1. 计算每一层的损失:
  2. 计算每一层的 Δ (初始化为0):
  3. 计算每一个参数的梯度

              

      其中,为正则化的参数。

  也就是说 。于是就可以使用梯度下降来进行参数的求解了。

参考吴恩达机器学习视频(4层神经网络时):

算法步骤:

3.2.2 ’误差’的计算

        在完成一次前向传播后,已知 J(Θ) ,也就是已知 (y^,y) 为了实现梯度下降:,我们需要求

 (1)解题思路:

    

        δ 在很多书中翻译为‘误差’,但这与模型预测值与样本y之间的误差不是一个概念。实际上δ是一个微分值。我们定义。有了这个中间值设定,可以简化我们的计算,不用对每一层θ的偏导计算都从网络的输出层开始重新计算一遍。至于为什么将这个中间值设定在,大概是两个原因:1、这是离我们要求导的 θ(l) 最靠近的一个元素。2、你也可以把这个中间值设定在∂C∂a(l),但这样在推导后的公式表达上比较繁琐,不易直观理解。事实上没有这个中间值你也能完整表达整个网络的梯度求导,只不过那个公式充满了∑会让你看着头晕。 

        如果你知道了的数值,那么据此求解就变得简单多了。 

        再进一步,如果我们找到之间的关系,在反向传播中,我们刚好可以从输出层输入层方向一层层的计算下去。

(2)寻找本层’误差’与下一层’误差’之间的关系

        寻找之间的关系 。

        要寻找之间的关系之前,就得明确一点是如何把‘误差’传给的。 
        先不说那么多,还是直接进行微分入手,已知:,其中,a = sigmod(z)

             

        很简单吧。不过这里的微分都是直接对矩阵的操作,是更恰当的计算标识。从另一方面说,如果你把网络简化成1->1->1->1的结构,以上推导就直接成立了。 

        通过上面的公式我们可以看到,怎么感觉和正向传播差不多啊,可以看出来参数矩阵作用前向传播,而它的转置就能作用于梯度的反向传播。

(3)确定输出层’误差’的值

        确定的值 。
        完成了上面的计算流程,我们已经完成了反向求导计算工作的70%了。我们知道了之间的关系,就能从输出层一层层的往输入层推。但是在输出层因为没有下一层节点,所以的值需要用另一种方式确定。回顾一下神经网络的损失函数: 

        

        在本文中都表达损失函数,考虑单条训练样本省略m,将输出值作为整体计算,即将表达为y,同时省略正则项可以表示为:

        

        

       

        

        

(4)最后一步

        已知的具体数值的情况下,求。已知:

        

        

3.2.3 反向传播的推导

        为什么求梯度时,要先对后一层进行计算,并利用其结果来求前一层的梯度?我们将针对如下例子进行推导证明:

           

  第一层的参数为:

                      

  第二层的参数为:

                       

(1)对第二层的参数求梯度

       我们先来对第二层的参数求梯度

      交叉熵误差函数为:

                    

        其中 为实际值,  。

                     

        求导推导公式参考2.2:机器学习算法(一):逻辑回归模型(Logistic Regression, LR)_意念回复的博客-CSDN博客_逻辑回归模型

(2)对第一层的参数求梯度

        现在我们来对第一层的参数求梯度

           

        先对中括号内的求导:

          

      

       其中,      ,           (a,一个神经元的激活值,即输出值)

    故:

             

             

            其中,

                    

        对比着3.2中的公式,我们可以看出,第 k 层的梯度可以根据第 k+1 层损失来计算(上式是用第 2 层的损失来推导第 1 层的梯度)。

链式推导(以三层神经网络为例):

首先计算误差函数,即的导数

           

(1)对第二层参数求梯度

        a = g(z)

           

(2)对第一层参数求梯度

          

          没有1,因为不对输入层求误差。使用进行各参数更新时,不需要加负号。

3.3 使用交叉熵代价函数(多分类交叉熵形式)+softmax函数进行反向传播

        使用该方法时,应先将真实输出经过softmax函数进行转换,再带入代价函数中进行计算。即:

       softmax函数:

                 

       多分类交叉熵:

                 

                 

3.3.1 算法步骤

         

3.3.2 反向传播的推导

链式推导(以三层神经网络为例):

一、计算误差函数对求导的导数

        当我们对分类的Loss进行改进的时候,我们要通过梯度下降,每次优化一个step大小的梯度,这个时候我们就要求Loss对每个权重矩阵的偏导,然后应用链式法则。那么这个过程的第一步,就是对softmax求导。

     计算误差函数对未经过softmax函数转化的输出,即求导的导数,根据链式法则,可将其转化为误差函数经过softmax函数转化后的输出求导的导数,再乘以经过softmax函数转化后的输出求导的导数

     忽略样本数量,即:

     

     

其中,

(1)损失函数对softmax层求导:

      

      

        我们对Si求导,其实是对Si中的求导,从公式中可以看出,由于每个Si的分母中都包含,因此对所有的Si都要求导。

        其中,第k个神经元的期望输出值,第k个神经元经过softmax函数转化后的输出,即y_out。

(2)softmax层对输出层求导

        分两种情况:

        ① q = k

           

      ② q ≠ k

           

(3)输出层对隐藏层输出神经元求导

        此时我们分别求出了两个偏导数,将两个偏导数合并起来(相乘),因为softmax层对输出层的偏导数有两种情况,因此链式求导的结果也分 q = k 和 q ≠ k 两种情况,加以合并:

            

由于:

              

因此:

              

二、对第二层参数求梯度

       

三、对第一层参数求梯度

       

3.4 使用均方误差函数反向传播

3.4.1 反向传播步骤

        

3.4.2 反向传播的推导

链式推导:

     首先计算误差函数,即的导数

      

      (不加正则项)

(1)对第二层参数求梯度

      

(2)对第一层参数求梯度

     ​​​

没有1,因为不对输入层求误差。使用进行各参数更新时,不需要加负号。

4 神经网络算法步骤

神经网络训练过程中每一次需要迭代的部分为:前向传播计算损失反向传播权值更新。

  • 前向传播简单而言就是计算预测 y 的过程
  • 后向传播则是根据预测值实际值之间的误差不断往回推更新权值和偏置的过程。

5 神经网络算法分析

(1)理论上,单隐层神经网络可以逼近任何连续函数(只要隐层的神经元个数足够)
(2)对于一些分类数据(比如CTR预估),3层神经网络效果优于2层神经网络,但如果把层数不断增加(4,5,6层),对最后的结果的帮助没有那么大的跳变。
(3)提升隐层数量或者隐层神经元个数,神经网络的“容量”会变大,空间表达能力会变强。
(4)过多的隐层和神经元结点会带来过拟合问题。
(5)不要试图降低神经网络参数量来减缓过拟合,用正则化或者dropout层

(6)隐藏层一般为一层,如果为多层时,每一层的神经元个数相同。

注:在代码中对参数的初始化并不是使用0来初始化,还是在范围 [−ϵ,ϵ] 间随机初始化。对应代码为:

Theta = np.random.rand(nextUnit, Unit+1) * 2 * epsilon - epsilon

epsilonϵ,nextUnit为隐藏层神经元的个数。

6 对比均方误差和交叉熵(二分类)

        此处说的交叉熵,应该是将多分类问题看做多个二分类问题的交叉熵。

        二分类中交叉熵损失函数:

             

         此时,交叉熵损失函数一般用来代替均方差损失函数,并与sigmoid激活函数组合。

        sigmoid激活函数表达式:

              

        sigmoid激活函数表达式:

             

        从图中可以看出,对于sigmoid函数,当 的取值越大或越小,函数曲线变得越平缓,意味着导数  越趋近于0。

        以单个样本的一次梯度下降为例:

               

       前两个公式分别是前向传播线性非线性部分,第三个公式是均方差损失函数,第四个公式是交叉熵损失函数。梯度下降的目的,直白地说:是减小真实值预测值的距离,而损失函数用来度量真实值预测值之间距离,所以梯度下降目的也就是减小损失函数的值。怎么减小损失函数的值呢?变量只有  和  ,所以我们要做的就是不断修改  和  的值以使损失函数越来越小。(这里例子只有一步,只修改一次)

         和  的更新: 

              

        其中  表示学习率,用来控制步长,即向下走一步的长度

        随机梯度下降:最优化方法一:梯度下降法_意念回复的博客-CSDN博客_梯度下降法求最优解

关键点来了,为什么用交叉熵而不是均方差呢?

        均方差对参数的偏导:

                 

        交叉熵对参数的偏导:

                

        注:为了简洁,以上公式中用  代替了 

        从以上公式可以看出:均方差对参数的偏导的结果都乘了sigmoid的导数  ,而之前看图发现sigmoid导数在其变量值很大或很小时趋近于0,所以偏导数很有可能接近于0。

        由参数更新公式:参数=参数-学习率×损失函数对参数的偏导

        可知,其变量值很大或很小时,即偏导很小时,参数更新速度会变得很慢,而当偏导接近于0时,参数几乎就不更新了。

        反观交叉熵对参数的偏导就没有sigmoid导数,所以不存在这个问题。这就是选择交叉熵而不选择均方差的原因。

7 实例(均方误差函数)

        当输入向量X输入感知器时,第一次初始化权重向量W是随机组成的,也可以理解成我们任意设置了初始值,并和输入做点积运算,然后模型通过权重更新公式来计算新的权重值,更新后的权重值又接着和输入相互作用,如此迭代多次,得到最终的权重。

        信号向前传播,权重的更新反向传播。

7.1 前馈的实质

        反向传播这个术语经常被误解为用于多层神经网络的整个学习算法。实际上,反向传播仅指用于计算梯度的方法,而另一种算法,例如随机梯度下降,使用该梯度来进行学习。此外,反向传播经常被误解为仅适用于多层神经网络,但是原则上它可以计算任何函数的导数(对于一些函数,正确的响应是报告函数的导数是未定义的)。

7.1.1 初始化权重和输入信号

        假设有如下三层网络,输入层隐藏层输出层,现有一组信号X输入网络,输入层隐藏层的链接权重Winput−hidden和隐藏层与输出层之间的权重Whidden−ouput,我们随机初始化。为了清晰效果,我们仅标注了几个权重,第一个输入节点和中间隐藏层第一个节点之间的权重为,正如上图中的神经网络所示。同样,你可以看到输入的第二节点和隐藏层的第二节点之间的链接的权重为,隐藏层第三个节点和输出层第二个节点之间链接的权重为......,此处的下标与1.3中所定义的相反,使用  来表示隐藏层第 3个神经元输出层第 2 个神经元之间链接的权重。

输入矩阵:

                    

输入层和隐藏层之间的连接权重:

                    

隐藏层和输出层之间的连接权重:

                     

7.1.2 输入层到隐藏层

        初始值定义好以后,开始计算输入到隐藏层的组合调节输入值

                          

        此处的矩阵乘法计算出的答案如下:

                                  

        让我们来整理一下网络的信号流动情况,作为第一层的输出,即第二层的输入已经正确求解,现在它准备进入隐藏层

              

        一进入隐藏层,我们就对的这些节点使用S激活函数,使其变得更加自然,并且我们把经过S函数(激活函数)处理后的这组输出信号命名为

        

7.1.3 隐藏层到输出层

        让我们再次可视化这些输入到第二层隐藏层的组合调节输入。现在信号已经向前流动到了第二层,下一步当然是计算第三层的输入信号(还未经过S函数的输入信号),计算的方法和前面一样,没有什么区别,不管我们的网络是几层,这种方法都适用。

           

于是,我们有:

                 

现在,更新示意图展示我们的进展,从初始输入信号开始,一层层往前流动的前馈信号,最后得到了最终层组合输入信号

最后一步使用S函数得到最后一层的输出,用表示:

                 

        前馈信号的流动到此为止,任务完成!通过可视化的图形,前馈神经网络中信号流入方向,变化等情况我们用网络图最后形展示出来。

          

        整个过程就是前馈的意思,信号一直向前流动,最后输出,中间任意层没有信号反回上一级网络。
        下一步我们会将神经网络的输出值训练样本中的输出值进行比较,计算出误差,并使用这个误差值来反向调节权重值。

7.2 反向传播的实质

       上一步我们得到了前向传播的输出值为[0.726, 0.708],这个值与真实值[0.01,0.99]还存在一定差距,不过没关系,反向传播误差会帮助我们更新权值,缩小这些误差,让我们来实验一下。

7.2.1 计算总误差(使用均方误差)

        因为总误差为:

        由于我们的实验网络有两个输出,因此总误差为两个输出误差之和。

        第一个误差:

                    

       第二个误差:

                    

       总误差:

                    

7.2.2 隐藏层和输出层的权重更新

        对于隐藏层输出层之间的权重来说,如果我们想知道对整体误差产生了多少影响,可以用总误差对求偏导,该偏导可以使用链式法则表示。

                    

        如图所示的反向传播示意图,并结合求导表达式,可以帮助我们更清楚的了解误差是怎么反向传播的。

              

      下面我们对以上求导式子中的每个小式子分别求值:

         

(1)首先计算

           

           

(2)再来计算

           

           

(3)最后计算

           

           

所以:

           

我们取学习率η=0.5,利用公式

           

得到更新后的为:

           

综上所述,也可以这样去计算

           

因此,改变上述式子的变量可以更新等权重值。

7.2.3 输入层和隐藏层的权重更新

        计算输入层和隐藏层之间的权重和上面的方法一样,但使用误差权重进行求导时,该误差应使用两个输出口的总误差,而不是一个输入口的误差。我们仍然用图形化的方式来展示:

          

        如上图所示,对于输入层隐藏层之间的权重来说,如果我们想知道整体误差产生了多少影响,可以用总误差对求偏导,该偏导可以使用链式法则表示。

        

我们还是一个一个的计算上面的式子。

(1)首先计算

        对于隐藏层的输出,它会接受来自两个输出传来的误差,所以

          

   ①  

         

          = 1.432×0.198924=0.284859168

        下面的隐藏层输出层的链接权重:

         

         

          = 0.284859168×0.3=0.08545775

②  

         

         

          

          

         

最后得到

          = 0.08545775 − 0.0233198208 = 0.062137929

(2)再计算

           

           

(3)最后计算

            

            

             = 0.062137929 × 0.181879 × 0.9 = 0.010168071

我们取学习率η=0.5,利用公式

            

得到更新后的为:

             = 0.9 - 0.5 × 0.010168071 = 0.89491596

        同样的方法可以更新其他权重的值。这样我们就完成了误差反向传播算法的介绍,在实际训练中我们通过这种方法不停的迭代,直到总误差接近0为止,得到的最优权重保留下来,训练完成。

 8 python实现

  1. # -*- coding: utf-8 -*-
  2. """
  3. mse:使用均方误差
  4. ce:将多分类问题转化为多个二分类问题
  5. soft:多分类交叉熵,最后一层输出后再使用softmax函数
  6. 该算法先将所有的样本进行一个前向传播和一次反向传播,进行权重更新后,再进行小批量进行权重更新。
  7. 每一次的输出均使用sigmoid函数。
  8. (最终文件)
  9. """
  10. import copy
  11. import numpy as np
  12. import matplotlib as mpl
  13. import matplotlib.pyplot as plt
  14. from sklearn import datasets
  15. from sklearn.model_selection import train_test_split
  16. from sklearn.preprocessing import LabelBinarizer
  17. mse_list = []
  18. ce_list = []
  19. soft_list = []
  20. def sigmoid(x):
  21. """
  22. 激活函数
  23. :param x: 激活函数输入值
  24. :return:
  25. """
  26. return 1 / (1 + np.exp(-x))
  27. def sigmoid_derivative(x):
  28. """
  29. 激活函数求导
  30. :param x: 激活函数输入值
  31. :return:
  32. """
  33. return x * (1 - x)
  34. def mse_function(y, pred_y):
  35. """
  36. 计算均方误差
  37. :param y: 期望的y
  38. :param pred_y: 预测得到的y
  39. """
  40. mse = (np.sum(pow((pred_y - y), 2)) / len(pred_y)) / 2
  41. return mse
  42. def ce_function(y, pred_y):
  43. """
  44. 转化为多个二分类问题时,计算交叉熵
  45. :param y: 期望的y
  46. :param pred_y: 预测得到的y
  47. :return:
  48. """
  49. cross_entropy = -np.sum(y * np.log(pred_y) + (1 - y) * np.log(1 - pred_y))
  50. return cross_entropy
  51. def soft_function(y, pred_y):
  52. """
  53. 使用softmax函数转化输出后,使用多分类计算交叉熵误差
  54. :param y: 期望的y
  55. :param pred_y: 预测得到的y
  56. :return:
  57. """
  58. pred_y = softmax(pred_y)
  59. soft_y = -np.sum(y * np.log(pred_y))
  60. return soft_y
  61. def softmax(pred_y):
  62. denominator = np.sum(np.exp(pred_y))
  63. pred_y = np.exp(pred_y) / denominator
  64. return pred_y
  65. class NeuralNetwork:
  66. def __init__(self, layer, times, alpha, epsilon):
  67. """
  68. 初始化神经网络
  69. :param layer: 每一层的神经元个数
  70. :param times: 循环迭代的次数
  71. :param alpha: 迭代步长
  72. """
  73. self.layer = layer
  74. self.times = times
  75. self.alpha = alpha
  76. # 初始化隐藏层和输出层的权重
  77. self.ce_weights = []
  78. # (100, 65) (10, 101)
  79. for tier in range(len(layer) - 1):
  80. self.ce_weights.append(np.random.rand(
  81. layer[tier + 1], layer[tier] + 1) * 2 * epsilon - epsilon)
  82. # self.ce_weights.append(
  83. # np.random.uniform(
  84. # -epsilon, epsilon, (layer[tier + 1], layer[tier] + 1)))
  85. self.mse_weights = copy.deepcopy(self.ce_weights)
  86. self.soft_weights = copy.deepcopy(self.ce_weights)
  87. def fit(self, feature, target, gamma, batch_num):
  88. feature_x0 = np.ones((np.shape(feature)[0], 1))
  89. feature_x = np.hstack((feature_x0, feature)) # 维度(1257, 65)
  90. m = len(feature_x)
  91. iters = 0
  92. # 第一次前向传播和反向传播,使用全部样本,更新参数
  93. mse_error = 0
  94. ce_error = 0
  95. soft_error = 0
  96. mse_deltas_error_list = np.array(
  97. [0 for _ in range(len(self.mse_weights))])
  98. ce_deltas_error_list = np.array(
  99. [0 for _ in range(len(self.ce_weights))])
  100. soft_deltas_error_list = np.array(
  101. [0 for _ in range(len(self.soft_weights))])
  102. for i in range(m):
  103. # 前向传播,得到每一层神经元的激活值,即输出,并得到第一次前向传播的mse和ce值
  104. activators = self.forward_propagation(
  105. feature_x[i], self.mse_weights)
  106. mse = mse_function(target[i], activators[-1])
  107. ce = ce_function(target[i], activators[-1])
  108. soft = soft_function(target[i], activators[-1])
  109. mse_error = mse_error + mse
  110. ce_error = ce_error + ce
  111. soft_error = soft_error + soft
  112. # 反向传播
  113. # 使用均方误差时的反向传播,得到deltas_error △
  114. mse_deltas_error = self.mse_back_propagation(activators, target[i],
  115. self.mse_weights)
  116. mse_deltas_error_list = mse_deltas_error_list + mse_deltas_error
  117. # 使用交叉熵误差时的反向传播,得到deltas_error △,并更新
  118. ce_deltas_error = self.ce_back_propagation(
  119. activators, target[i], self.ce_weights)
  120. ce_deltas_error_list = ce_deltas_error_list + ce_deltas_error
  121. # 使用soft和交叉熵的反向传播,得到deltas_error △
  122. soft_deltas_error = self.soft_back_propagation(
  123. activators, target[i], self.soft_weights)
  124. soft_deltas_error_list = soft_deltas_error_list + soft_deltas_error
  125. # if i % 100 == 0:
  126. # print(i)
  127. # 记录第一次前向传播后,权重未更新时,加上正则项后的mse、ce、使用soft和交叉熵的误差
  128. mse_regu = []
  129. ce_regu = []
  130. soft_regu = []
  131. for w in range(len(self.ce_weights)):
  132. mse_weights_re = np.sum(np.power(self.mse_weights[w], 2))
  133. mse_regu.append(mse_weights_re)
  134. ce_weights_re = np.sum(np.power(self.ce_weights[w], 2))
  135. ce_regu.append(ce_weights_re)
  136. soft_weights_re = np.sum(np.power(self.soft_weights[w], 2))
  137. soft_regu.append(soft_weights_re)
  138. mse_regular = (mse_error + gamma * np.sum(mse_regu) / 2) / m
  139. ce_regular = (ce_error + gamma * np.sum(ce_regu) / 2) / m
  140. soft_regular = (soft_error + gamma * np.sum(soft_regu) / 2) / m
  141. mse_list.append(mse_regular)
  142. ce_list.append(ce_regular)
  143. soft_list.append(soft_regular)
  144. # 根据反向传播的结果,更新各层参数
  145. mse_weights = self.update_parameters(
  146. mse_deltas_error_list, self.mse_weights, m, gamma)
  147. ce_weights = self.update_parameters(
  148. ce_deltas_error_list, self.ce_weights, m, gamma)
  149. soft_weights = self.update_parameters(
  150. soft_deltas_error_list, self.soft_weights, m, gamma)
  151. self.mse_weights = mse_weights
  152. self.ce_weights = ce_weights
  153. self.soft_weights = soft_weights
  154. # 记录第一次反向传播,权重更新后,加上正则项后,所有样本的mse、ce、使用soft和交叉熵的误差
  155. self.compute_error(feature_x, target, m, gamma)
  156. # 小批量更新
  157. print("batch----------------------------------------------------------")
  158. while iters < self.times:
  159. rand_index = np.random.randint(0, m, size=(1, batch_num))[0]
  160. feature_batch = feature_x[rand_index]
  161. target_batch = target[rand_index]
  162. mse_error = 0
  163. ce_error = 0
  164. soft_error = 0
  165. mse_deltas_error_list = np.array(
  166. [0 for _ in range(len(self.mse_weights))])
  167. ce_deltas_error_list = np.array(
  168. [0 for _ in range(len(self.ce_weights))])
  169. soft_deltas_error_list = np.array(
  170. [0 for _ in range(len(self.soft_weights))])
  171. for i in range(batch_num):
  172. # 前向传播,得到每一层神经元的激活值,即输出,并得到前向传播的mse和ce值
  173. mse_activators = self.forward_propagation(
  174. feature_batch[i], self.mse_weights)
  175. ce_activators = self.forward_propagation(
  176. feature_batch[i], self.ce_weights)
  177. soft_activators = self.forward_propagation(
  178. feature_batch[i], self.soft_weights)
  179. mse = mse_function(target[i], mse_activators[-1])
  180. ce = ce_function(target[i], ce_activators[-1])
  181. soft = soft_function(target[i], soft_activators[-1])
  182. mse_error = mse_error + mse
  183. ce_error = ce_error + ce
  184. soft_error = soft_error + soft
  185. # print(iters)
  186. # print("mse_activators:", mse_activators)
  187. # print("ce_activators:", ce_activators)
  188. # print("soft_activators:", soft_activators)
  189. # 反向传播
  190. # 使用均方误差时的反向传播,得到deltas_error △,并更新
  191. mse_deltas_error = self.mse_back_propagation(
  192. mse_activators, target_batch[i], self.mse_weights)
  193. mse_deltas_error_list = mse_deltas_error_list + \
  194. mse_deltas_error
  195. # 使用交叉熵误差时的反向传播,得到deltas_error △,并更新
  196. ce_deltas_error = self.ce_back_propagation(
  197. ce_activators, target_batch[i], self.ce_weights)
  198. ce_deltas_error_list = ce_deltas_error_list + ce_deltas_error
  199. # 使用soft和交叉熵的反向传播,得到deltas_error △,并更新
  200. soft_deltas_error = self.soft_back_propagation(
  201. soft_activators, target_batch[i], self.soft_weights)
  202. soft_deltas_error_list = soft_deltas_error_list + \
  203. soft_deltas_error
  204. # 根据反向传播的结果,更新各层参数
  205. mse_weights = self.update_parameters(
  206. mse_deltas_error_list, self.mse_weights, batch_num, gamma)
  207. ce_weights = self.update_parameters(
  208. ce_deltas_error_list, self.ce_weights, batch_num, gamma)
  209. soft_weights = self.update_parameters(
  210. soft_deltas_error_list, self.soft_weights, batch_num, gamma)
  211. self.mse_weights = mse_weights
  212. self.ce_weights = ce_weights
  213. self.soft_weights = soft_weights
  214. # 记录此次反向传播,权重更新后,加上正则项后,所有样本的mse、ce、使用soft和交叉熵的误差
  215. self.compute_error(feature_x, target, m, gamma)
  216. iters += 1
  217. if iters % 500 == 0:
  218. print(iters)
  219. return self.mse_weights, self.ce_weights, self.soft_weights
  220. # 前向传播,得到每层神经元的输出
  221. def forward_propagation(self, feature_one, for_weights):
  222. activators = [feature_one.reshape(1, -1)] # 激活项,输入层的激活项即为X (1*65)
  223. for forward_layer in range(len(for_weights)):
  224. activator = sigmoid(
  225. np.dot(activators[forward_layer], for_weights[forward_layer].T))
  226. if forward_layer < len(for_weights) - 1:
  227. activator = np.append(np.array([1]), activator) # 1*101
  228. # activators:(1, 65) (1, 101) (1, 10)
  229. activators.append(activator.reshape(1, -1))
  230. return activators
  231. # 使用均方误差函数进行反向传播
  232. def mse_back_propagation(self, activators, target_one, back_weights):
  233. # 反向计算该样本各层神经元误差delta
  234. deltas_error = [0 for _ in range(len(back_weights))]
  235. error = (target_one - activators[-1]) * \
  236. sigmoid_derivative(activators[-1])
  237. deltas = [error]
  238. for j in range(len(back_weights) - 1, 0, -1):
  239. delta = np.dot(back_weights[j].T, deltas[-1].T).T \
  240. * sigmoid_derivative(activators[j])
  241. deltas.append(delta)
  242. deltas.reverse() # deltas:(1, 101) (1, 10)
  243. # 计算deltas_error △
  244. for j in range(len(back_weights)):
  245. de_error = np.dot(deltas[j].reshape(-1, 1), activators[j])
  246. if j < len(back_weights) - 1:
  247. de_err = de_error[1:]
  248. else:
  249. de_err = de_error
  250. deltas_error[j] = de_err
  251. return deltas_error
  252. # 使用交叉熵函数进行反向传播
  253. def ce_back_propagation(self, activators, target_one, back_weights):
  254. # 反向计算该样本各层神经元误差deltas
  255. deltas_error = [0 for _ in range(len(back_weights))]
  256. error = target_one - activators[-1]
  257. deltas = [error]
  258. for j in range(len(back_weights) - 1, 0, -1):
  259. delta = np.dot(back_weights[j].T, deltas[-1].T).T \
  260. * sigmoid_derivative(activators[j])
  261. deltas.append(delta)
  262. deltas.reverse() # deltas:(1, 101) (1, 10)
  263. # 计算deltas_error △
  264. for j in range(len(back_weights)):
  265. de_error = np.dot(deltas[j].reshape(-1, 1), activators[j])
  266. if j < len(back_weights) - 1:
  267. de_err = de_error[1:]
  268. else:
  269. de_err = de_error
  270. deltas_error[j] = de_err
  271. return deltas_error
  272. # 使用soft和交叉熵进行反向传播
  273. def soft_back_propagation(self, activators, target_one, back_weights):
  274. # 反向传播计算该样本各层神经元误差deltas
  275. deltas_error = [0 for _ in range(len(back_weights))]
  276. # print("activators[-1]:", activators[-1])
  277. soft_activators = softmax(activators[-1])
  278. # print("soft_activators: ", soft_activators)
  279. error = (target_one - soft_activators) * sigmoid_derivative(
  280. activators[-1])
  281. deltas = [error]
  282. for j in range(len(back_weights) - 1, 0, -1):
  283. delta = np.dot(back_weights[j].T, deltas[-1].T).T \
  284. * sigmoid_derivative(activators[j])
  285. deltas.append(delta)
  286. deltas.reverse() # deltas:(1, 101) (1, 10)
  287. # 计算deltas_error △
  288. for j in range(len(back_weights)):
  289. de_error = np.dot(deltas[j].reshape(-1, 1), activators[j])
  290. if j < len(back_weights) - 1:
  291. de_err = de_error[1:]
  292. else:
  293. de_err = de_error
  294. deltas_error[j] = de_err
  295. return deltas_error
  296. # 更新参数
  297. def update_parameters(self, deltas_error_list, up_weights, data_num, gamma):
  298. for ly in range(len(up_weights)):
  299. # 除偏置神经元外,其余神经元加上正则项
  300. deltas_error_list_regular = deltas_error_list[ly][:, 1:]
  301. weights_regular = up_weights[ly][:, 1:]
  302. d_part = deltas_error_list_regular / data_num \
  303. + gamma * weights_regular
  304. # test_der = deltas_error_list[ly][:, 0]/data_num
  305. der = np.hstack(
  306. (((deltas_error_list[ly][:, 0].reshape(-1, 1)) / data_num),
  307. d_part))
  308. up_weights[ly] = up_weights[ly] + self.alpha * der
  309. return up_weights
  310. # 计算所有输入样本的误差和,加正则项
  311. def compute_error(self, feature_all, target_all, data_num, gamma):
  312. mse_error = 0
  313. ce_error = 0
  314. soft_error = 0
  315. for i in range(data_num):
  316. # 前向传播,得到每一层神经元的激活值,即输出,并计算误差
  317. mse_activators = self.forward_propagation(
  318. feature_all[i], self.mse_weights)
  319. ce_activators = self.forward_propagation(
  320. feature_all[i], self.ce_weights)
  321. soft_activators = self.forward_propagation(
  322. feature_all[i], self.soft_weights)
  323. mse = mse_function(target_all[i], mse_activators[-1])
  324. ce = ce_function(target_all[i], ce_activators[-1])
  325. soft = soft_function(target_all[i], soft_activators[-1])
  326. mse_error = mse_error + mse
  327. ce_error = ce_error + ce
  328. soft_error = soft_error + soft
  329. # 计算加上正则项后的mse、ce、使用soft和交叉熵的误差
  330. mse_regu = []
  331. ce_regu = []
  332. soft_regu = []
  333. for w in range(len(self.ce_weights)):
  334. mse_weights_re = np.sum(np.power(self.mse_weights[w], 2))
  335. mse_regu.append(mse_weights_re)
  336. ce_weights_re = np.sum(np.power(self.ce_weights[w], 2))
  337. ce_regu.append(ce_weights_re)
  338. soft_weights_re = np.sum(np.power(self.soft_weights[w], 2))
  339. soft_regu.append(soft_weights_re)
  340. mse_regular = (mse_error + gamma * np.sum(mse_regu) / 2) / data_num
  341. ce_regular = (ce_error + gamma * np.sum(ce_regu) / 2) / data_num
  342. soft_regular = (soft_error + gamma * np.sum(soft_regu) / 2) / data_num
  343. mse_list.append(mse_regular)
  344. ce_list.append(ce_regular)
  345. soft_list.append(soft_regular)
  346. # 进行预测
  347. def predict(feature, target, target_lb, mse_w, ce_w, soft_w, gamma):
  348. feature_x0 = np.ones((np.shape(feature)[0], 1))
  349. feature_x = np.hstack((feature_x0, feature)) # 维度(540, 65)
  350. data_num = len(feature_x)
  351. mse_error = 0
  352. ce_error = 0
  353. soft_error = 0
  354. mse_predict_value_list = []
  355. ce_predict_value_list = []
  356. soft_predict_value_list = []
  357. for i in range(data_num):
  358. mse_activators = nn.forward_propagation(feature_x[i], mse_w)
  359. ce_activators = nn.forward_propagation(feature_x[i], ce_w)
  360. soft_activators = nn.forward_propagation(feature_x[i], soft_w)
  361. # 计算数字形式的预测输出,用于之后计算准确率
  362. mse_pred = mse_activators[-1]
  363. ce_pred = ce_activators[-1]
  364. soft_pred = soft_activators[-1]
  365. mse_predict_value = np.argmax(mse_pred)
  366. ce_index_value = np.argmax(ce_pred)
  367. soft_index_value = np.argmax(soft_pred)
  368. mse_predict_value_list.append(mse_predict_value)
  369. ce_predict_value_list.append(ce_index_value)
  370. soft_predict_value_list.append(soft_index_value)
  371. # 计算均方误差和交叉熵
  372. mse = mse_function(target_lb[i], mse_activators[-1])
  373. ce = ce_function(target_lb[i], ce_activators[-1])
  374. soft = soft_function(target_lb[i], soft_activators[-1])
  375. mse_error = mse_error + mse
  376. ce_error = ce_error + ce
  377. soft_error = soft_error + soft
  378. # 计算加上正则项后的mse、ce、使用soft和交叉熵的误差
  379. mse_regu = []
  380. ce_regu = []
  381. soft_regu = []
  382. for w in range(len(ce_weights)):
  383. mse_weights_re = np.sum(np.power(mse_w[w], 2))
  384. mse_regu.append(mse_weights_re)
  385. ce_weights_re = np.sum(np.power(ce_w[w], 2))
  386. ce_regu.append(ce_weights_re)
  387. soft_weights_re = np.sum(np.power(soft_w[w], 2))
  388. soft_regu.append(soft_weights_re)
  389. mse_regular = (mse_error + gamma * np.sum(mse_regu) / 2) / data_num
  390. ce_regular = (ce_error + gamma * np.sum(ce_regu) / 2) / data_num
  391. soft_regular = (soft_error + gamma * np.sum(soft_regu) / 2) / data_num
  392. # 计算准确率
  393. mse_judge = np.array(mse_predict_value_list) == np.array(target)
  394. mse_prec = np.sum(mse_judge) / len(mse_judge)
  395. ce_judge = np.array(ce_predict_value_list) == np.array(target)
  396. ce_prec = np.sum(ce_judge) / len(ce_judge)
  397. soft_judge = np.array(soft_predict_value_list) == np.array(target)
  398. soft_prec = np.sum(soft_judge) / len(soft_judge)
  399. print(mse_judge, ce_judge, soft_prec, sep="\n")
  400. return mse_regular, ce_regular, soft_regular, \
  401. mse_prec, ce_prec, soft_prec
  402. def plot(mse, ce, soft):
  403. # 设置matplotlib 支持中文显示
  404. mpl.rcParams['font.family'] = 'SimHei' # 设置字体为黑体
  405. mpl.rcParams['axes.unicode_minus'] = False # 设置在中文字体是能够正常显示负号(“-”)
  406. # plt.figure(figsize=(20, 20))
  407. # plt.plot(mse_re, lw=1, c='red', marker='s', ms=4, label="均方误差")
  408. # plt.plot(ce_re, lw=1, c='green', marker='o', ms=4, label="二分类交叉熵")
  409. # plt.plot(soft_re, lw=1, c='yellow', marker='^', ms=4, label="多分类交叉熵")
  410. plt.figure()
  411. # 绘制误差值
  412. mse_re_part = [mse[i - 1] for i in range(1, len(mse)) if i % 50 == 0]
  413. mse_re_part.insert(0, mse[0])
  414. ce_re_part = [ce[i - 1] for i in range(1, len(ce)) if i % 50 == 0]
  415. ce_re_part.insert(0, ce[0])
  416. soft_re_part = [soft[i - 1]
  417. for i in range(1, len(soft)) if i % 50 == 0]
  418. soft_re_part.insert(0, soft[0])
  419. x_data = [i for i in range(len(soft)) if i % 50 == 0]
  420. plt.plot(x_data, mse_re_part, lw=1, c='red',
  421. marker='s', ms=4, label="均方误差")
  422. plt.plot(x_data, ce_re_part, lw=1, c='green',
  423. marker='o', ms=4, label="二分类交叉熵")
  424. plt.plot(x_data, soft_re_part, lw=1, c='yellow',
  425. marker='^', ms=4, label="多分类交叉熵")
  426. plt.xlabel("迭代次数")
  427. plt.ylabel("误差")
  428. plt.title("手写字预测-神经网络")
  429. plt.legend()
  430. plt.show()
  431. if __name__ == "__main__":
  432. digits = datasets.load_digits()
  433. range_value = np.max(digits.data) - np.min(digits.data)
  434. data = (digits.data - np.min(digits.data)) / range_value
  435. train_feature, test_feature, train_target, test_target = train_test_split(
  436. data, digits.target, test_size=0.3)
  437. train_target_lb = LabelBinarizer().fit_transform(train_target)
  438. test_target_lb = LabelBinarizer().fit_transform(test_target)
  439. layer = [64, 100, 10]
  440. times = 8000 # 迭代次数
  441. alphas = 0.02 # 迭代步长
  442. epsilon = 1 # 初始化权重的范围[-epsilon, epsilon]
  443. nn = NeuralNetwork(layer, times, alphas, epsilon) # 初始化一个三层的神经网络
  444. gamma = 0.0001 # 正则化系数
  445. batch_num = 20
  446. mse_weights, ce_weights, soft_weights = nn.fit(
  447. train_feature, train_target_lb, gamma, batch_num)
  448. # print(mse_list, ce_list, soft_list, sep="\n")
  449. mse_re, ce_re, soft_re, mse_precision, ce_precision, soft_precision = \
  450. predict(test_feature, test_target, test_target_lb,
  451. mse_weights, ce_weights, soft_weights, gamma)
  452. print("mse_re:{0}".format(mse_re),
  453. "ce_re:{0}".format(ce_re),
  454. "soft_re:{0}".format(soft_re), sep="\n")
  455. print("mse_precision:{0}".format(mse_precision),
  456. "ce_precision:{0}".format(ce_precision),
  457. "soft_precision:{0}".format(soft_precision), sep="\n")
  458. plot(mse_list, ce_list, soft_list)

交叉熵:https://www.jianshu.com/p/8a0ad237b0ed

从零开始机器学习-16 初探神经网络(Neural Network) - 简书

神经网络的理解与实现 - EEEEEcho - 博客园

神经网络和深度学习之——误差反向传播算法 - 帅虫哥 - 博客园

深度学习笔记1:利用numpy从零搭建一个神经网络 - 知乎

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/352112
推荐阅读
相关标签
  

闽ICP备14008679号