赞
踩
相关申明及相关参考:
体系学习地址 主要学习笔记地址
由于是文章阅读整合,依据个人情况标注排版,
不确定算不算转载,主要学习围绕AI浩的五万字总结,深度学习基础
如有侵权,请联系删除。
神经网络的计算主要有两种:
前向传播(foward propagation, FP)作用于每一层的输入,通过逐层计算得到输出结果;
反向传播(backward propagation, BP)作用于网络的输出,计算梯度由深到浅更新网络参数。
总目标:输入数据 ,使输出层尽可能与原始输出 I 接近
前向传播:输入层-隐藏层-输出层
假设上一层结点i , j , k , . . .等一些结点与本层的结点w 有连接,那么结点w的值怎么算呢?就是通过上一层的i , j , k , . . .等结点以及对应的连接权值进行加权和运算,最终结果再加上一个偏置项(图中为了简单省略了),最后在通过一个非线性函数(即激活函数),如R e L u sigmoid等函数,最后得到的结果就是本层结点w的输出。不断的通过这种方法一层层的运算,得到输出层结果。
反向传播:计算总误差-隐藏层-输出层的权值更新-隐藏层的权值更新
由于前向传播得到的结果往往存在误差,当前最广泛减少误差的算法就是梯度下降算法,求梯度就是要求偏导数,以上图为例:
输出层 3 个节点:1、2、3;隐藏层 4 个节点:4、5、6、7;输出层 2 个节点:8、9;
以隐藏层节点4为例,它和输入层的三个节点 1、2、3 之间都有连接,其连接上的权重分别为是 。
计算节点 4 的输出值时,首先计算上游节点即1、2、3 的输出值,节点 1、2、3 是输入层的节点,所以,他们的输出值就是输入向量本身。按照上图画出的对应关系,可以看到节点 1、2、3 的输出值分别是,还有节点4的偏置项。
同理,可以计算节点5、6、7的输出值,则输出层节点8的输出值,为偏置项。
同理,可以计算,则输出层所有节点的输出值计算完毕,输出向量的维度和输出层神经元的个数相同。
前提:在一定范围内。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。