赞
踩
感知器:
1、外部刺激通过神经末梢,转化为电信号,转导到神经细胞(又叫神经元)
2、无数神经元构成神经中枢
3、神经中枢综合各种信号,做出判断
4、人体根据神经中枢的指令,对外部刺激做出反应。
生物神经网络的基本工作原理:
一个神经元的输入端有很多树突,主要从来接收输入信息的。输入信息经过突触处理,将输入的信息累加,当处理后的输入信息大于某一个特定的阈值,就不会吧信息通过轴突传输出去,这是神经元被刺激。相反,当处理后的输入信息小于阈值时,神经元就处于抑制状态,他不会像其他神经元传递信息。或者传递的信息很少。
人工神经网络分为两个阶段:
1、接受来自其他n个神经元传递过来的信号,这些输入信号与相应的权重进行加权就和传递给下个阶段。(预激活阶段)
2、把预激活的加权结果传递给激活函数。
人造神经元
输入:
x
1
,
x
2
,
x
3
x_1,x_2,x_3
x1,x2,x3
输出:Output
简化模型:约定每种输入只有只有两种可能为1或0
所有输入都是1,表示各种条件都成立,输出就是1;
所有输入都是0,表示条件都不成立,输出就是0
举例:
西瓜好坏?
颜色:青绿;根蒂:蜷缩;敲声:着响。—好瓜
神经网络由相互联系的神经元形成,这些神经元具有权重和网络训练期间根据错误来进行更新的偏差,目标是找到一个未知函数的近似值。其原理是受我们大脑的生理结构——互相交叉相连的神经元的启发,但与大脑一个神经元可以连接一定距离的任意神经元不同,人工神经网络具有离散的层,连接和数据传播的方向。
神经元是组成神经网络的最基本单位,它起初来源于人体,模仿人体的神经元,功能也与人体的神经元一致,得到信号的输入,进过数据处理,然后给出一个结果做出输出或者作为下一个神经元的输入。
输入是特向向量。特征向量代表的是变化的方向。或者说,是最能代表这个事物的特征的方向。权重(权值)就是特征值。有正有负,加强或抑制,同特征值一样。权重的绝对值大小,代表了输入信号对神经元的影响的大小。
最简单的把这两组向量分开的方法:
a
x
+
b
y
+
c
=
0
→
y
=
k
x
+
b
→
y
=
w
x
+
b
ax+by+c=0\rightarrow y=kx+b\rightarrow y=wx+b
ax+by+c=0→y=kx+b→y=wx+b
把上式推广到n维空间:
→
h
=
a
1
x
1
+
a
2
x
2
+
⋯
+
a
n
x
n
+
a
0
=
0
\rightarrow h=a_1x_1+a_2x_2+\cdots+a_nx_n+a_0=0
→h=a1x1+a2x2+⋯+anxn+a0=0
神经元就是当h大于0时输出1,h小于0时输出0这么一个模型,它的实质就是把特征空间一切两半,认为两半分别属于两类。神经元的缺点在于智能一刀切,解决办法为多层神经网络。
优秀的激活函数:(优化器根据梯度下降优化参数)
1) 非线性:激活函数非线性时,多层神经网络可逼近所有函数
2) 可微性:优化器大多用梯度下降更新参数
3) 单调性:当激活函数是单调的,能保证单层网络的顺势函数使凸函数
4) 近似恒等性: 当参数初始化为随机小时,神经网络更稳定
激活函数输出值的范围:
1) 激活函数输出为有限时,基于梯度的优化方法更稳定
2) 激活函数输出为无限时,建议调小学习率
{
f
(
x
)
=
1
1
+
e
−
x
f
′
(
x
)
=
e
−
x
(
1
+
e
−
x
)
2
\left\{f(x)=11+e−xf′(x)=e−x(1+e−x)2\right.
{f(x)=1+e−x1f′(x)=(1+e−x)2e−x
特点:
a.易造成梯度消失(梯度消失)
b.输出非0均值,收敛慢
c.幂运算复杂,计算复杂,训练时间长
{
f
(
x
)
=
1
−
e
−
2
x
1
+
e
−
2
x
f
′
(
x
)
=
4
e
−
2
x
(
1
+
e
−
2
x
)
2
\left\{f(x)=1−e−2x1+e−2xf′(x)=4e−2x(1+e−2x)2\right.
{f(x)=1+e−2x1−e−2xf′(x)=(1+e−2x)24e−2x
特点:
a.输出时0均值
b.易造成梯度消失
c.幂运算复杂,计算复杂,训练时间长
{
f
(
x
)
=
m
a
x
(
x
,
0
)
=
{
0
x
<
0
x
x
⩾
0
f
′
(
x
)
=
{
0
x
<
0
1
x
⩾
0
\left\{\begin{array}{l}f(x)=max(x,0)=\left\{\begin{array}{l}0\;\;x<0\\x\;\;x\geqslant0\end{array}\right.\\f'(x)=\left\{0x<01x⩾0\right.\end{array}\right.
⎩⎪⎪⎨⎪⎪⎧f(x)=max(x,0)={0x<0xx⩾0f′(x)={0x<01x⩾0
优点:
a.解决了梯度消失问题(在正区间内)
b.只需判断输入是否大于0,计算速度快
c. 收敛速度远快于sigmod和tanh
缺点:
a. 输出0非均值,收敛慢
b. Dead ReIU问题,某些神经元可能不会被激活,导致相应的参数永远不能被更新
RelU起源于神经科学的研究:2001年,Dayan、Abott从生物学角度模拟处了脑神经元接收信号更精确的激活模型:
{
f
(
x
)
=
m
a
x
(
α
x
,
0
)
f
′
(
x
)
=
m
a
x
(
α
,
1
)
\left\{f(x)=max(αx,0)f′(x)=max(α,1)\right.
{f(x)=max(αx,0)f′(x)=max(α,1)
特点:
理论上来讲,Leaky Relu有Relu所有的有点,外加不会有Dead Relu问题,但是在实际操作中,并没有完全证明其比Relu好
ReLU函数其实是分段性函数,把所有的负值都变为0,而正值不变,这种操作被称为单侧抑制。
正因为有了这种单侧抑制,才使得神经网络中的神经元也具有了系数激活性。
当模型增加N层之后,理论上ReLU神经元的激活率将降低2的N次方倍。
损失函数用于描述模型预测值与真实值的差距大小。一般有两种常见的算法——均值平方差(MSE)和交叉熵(cross entropy)。
学习率是一个重要的超参数,它控制着我们基于损失梯度调整神经网络权值的速度。
学习率越小,我们沿着损失梯度下降的速度越慢。
从长远来看,这种谨慎慢行的选择可能还不错,因为可以避免错过任何局部最优解,但它也意味着我们要花更多的时间来收敛,尤其是如果我们处于曲线的至高点。
1、使用神经网络训练数据之前,必须确定神经网络层数,以及每层单元的个数
2、特征向量在被传入输入层时通常要先标准化到0~1之间(为了加速学习过程)
3、离散型变量可以被编码成每一个输入单元对弈一个特征量可能赋的值
比如:特征A可能取
(
a
0
,
a
1
,
a
2
)
(a_0,a_1,a_2)
(a0,a1,a2),可以使用3个输入单元来代表A。
如果
A
=
a
0
A=a_0
A=a0,那么代表
a
0
a_0
a0的单元值就取1,其他取0;
如果
A
=
a
1
A=a_1
A=a1,那么代表
a
1
a_1
a1的单元值就取1,其他取0,以此类推;
4、神经网络既可以用来做分类(classification)问题,也可以解决回归(regression)问题
(1)对于分类问题,如果是2类,可以用一个输出单元表示(0和1分别代表2类);如果多于2类,则每一个类别用一个输出单元表示
(2)没有明确的规则来设计最好有多少个隐藏层,可以更具实验测试和误差以及精度来实验并改进。
标准化代码如下:
import numpy as np
import matplotlib.pyplot as plt
def Normalization1(x):
"""
归一化(0~1)
x_=(x−x_min)/(x_max−x_min)
"""
return [(float(i) - min(x)) / float(max(x) - min(x)) for i in x]
def Normalization2(x):
"""
归一化(-1~1)
x_=(x−x_mean)/(x_max−x_min)
"""
return [(float(i) - np.mean(x)) / (max(x) - min(x)) for i in x]
def z_score(x):
"""
标准化
x∗=(x−μ)/σ
"""
x_mean = np.mean(x)
s2 = sum([(i - np.mean(x)) * (i - np.mean(x)) for i in x]) / len(x)
return [(i - x_mean) / s2 for i in x]
l = np.random.randint(-10, 10, size=20)
n1 = Normalization1(l)
n2 = Normalization2(l)
x = list(range(-10, 10))
plt.plot(x, l, label='source data')
plt.plot(x, n1, label='Normalization1 data')
plt.plot(x, n2, label='Normalization2 data')
plt.legend(loc='best'), plt.title('Data normalization')
plt.show()
结果如下:
让我们从一个问题开始,假设区分一下三证图片哪个是人脸,也就是人脸识别,神经网络模型怎么建立呢?为了简单起见,输入层的每个节点代表图片的某个像素,个数为像素点的个数,输出层简单地定义为一个节点,表示“是”还是“不是”。
那么隐含层怎么分析呢?我们先从感性地角度认识这个人脸识别问题,试着将这个问题分解为一些子问题,比如:
**Supervised Learning有监督学习:**输入的数据被称为训练数据,一个模型需要通过一个训练过程,在这个过程中进行预期判断,如果错误了再进行修正,训练过程一直持续到基于训练数据达到预期的精确性。其关键方法是分类和回归,算法是逻辑回归(Logistic Regression)和BP神经网络(Back Propagation Neural Network)。
**Unsupervised Learning无监督学习:**没有任何训练数据,基于没有标记的输入数据采取推到结构的模型,其关键方式是关联规则学习和聚合,算法有Apriori算法和K-Means。
深度学习的根本问题是优化和泛化之间的对立。
1、建模样本选取了错误的选样方法、样本标签等,或样本数量太少,所选取的样本数据不足以代表预定的分类规则;
2、样本的噪音干扰过大,使得及其将部分噪音认为是特征从而扰乱了预设的分类规则
3、假设的模型无法合理存在,或者说是无法达到假设成立的条件
4、参数太多导致模型复杂度过高
5、对于神经网络模型:a)对样本数据可能存在分类决策面不唯一,随着学习的进行,BP算法使权重可能收敛过于复杂的决策面;b)权重学习迭代次数足够多,拟合了训练数据中心的噪声和训练样例中没有代表性的特征。
1、减少特征:删除与目标不相关的也正,如一些特征选择方法
2、Early stopping
3、更多的训练样本
4、重新清洗数据、数据增强
5、Dropout
在神经网络中,dropout方法是通过修改神经网络本身结构来实现的:
1、在训练开始是,随机删除一些(可以设定为1/2,也可以为1/3,1/4等)隐藏层神经元,即认为这些神经元不存在,同时保持输入层与输出层神经元个数不变。(相应权重变为0)
2、然后按照BP学习算法对ANN中的参数进行学习更新(虚拟连接的单元不更新,因为认为这些神经元被临时删除了)。这样一次迭代更新便完成了。下一次迭代中,同样随机删除一些神经元,与上次不一样,做随机选择。这样一直进行,直至训练结束。
Dropout方法是通过修改ANN中隐藏层的神经元个数来防止ANN的过拟合。
为什么Dropout能够减少过拟合
1、Dropout是随机选择忽略隐藏层节点,在每个批次的训练过程:由于每次随机忽略的隐藏层节点都不同,这样就使每次训练的网络都是不一样的,每次训练都可以当做一个“新”模型;
2、隐藏节点都是以一定概率随机出现,因此不能保证每2个隐含节点每次都同时出现。这样权值的更新不再依赖有固定关系隐含节点共同作用,阻止了某些特征仅仅在其他特定特征下才有效果的情况
Dropout是一个非常有效的神经网络平均方法,通过训练大量的不同的网络,来平均预测概率。不同的模型在不同的训练集上训练(每个epoch的训练数据都是随机选择),然后在每个模型用相同的权重来“融合”。
数据集可以分为:
这里有一堆数据,我们把它切成3个部分(当然还可以更多)
第一部分做测试集,二三部分做训练集,算出准确度;
第二部分做测试集,一三部分做训练集,算出准确度;
第三部分做测试集,一二部分做训练集,算出准确度;
之后算出三个准确度的平均值,作为最后的准确度。
**训练(Training):**一个初始神经网络通过不断的优化自身参数,来让自己变得准确。这整个过程称之为训练(Training)。
**推理(Inference):**训练好了一个模型,在训练数据集中表现良好,但是我们的期望是它可以对以前没看过的图片进行识别。当重新拍一张图片扔进网络让网络做判断,这种图片就叫做现场数据(live data),如果现场数据的区分准确率非常高,那么证明你的网络训练的是非常好的。这个过程,称为推理(Inference)。
我们利用神经网络取解决图像分割,边界探测等问题的时候,我们的输入(假设为x),与期望的输出(假设为y)之间的关系究竟是什么?也就是
y
=
f
(
x
)
y=f(x)
y=f(x)中,
f
f
f是什么,我们也不清楚,但是我们对一点很确信,那就是
f
f
f不是一个简单的线性函数,应该是一个抽象的复杂的关系,那么利用神经网络就是去学习这个关系,存放到model中,利用得到的model去推测训练集之外的数据,得到期望的结果。
**代(Epoch):**使用训练集的全部数据对模型进行一次完整训练,被称为“一代训练”。
**批大小(Btach size):**使用训练集的一部分样本对模型权重进行一次方向传播的参数更新,这一小部分样本被称为“一批数据”
**迭代(Iteration):**使用一个Batch训练对模型进行一次参数更新的过程,被称为“一次训练”(一次迭代)。每一次迭代得到的结果都会被作为下一次迭代的初始值。一个迭代=一个正向通过+一个反向通过。
N
u
m
b
e
r
o
f
B
a
t
c
h
e
s
=
T
r
a
i
n
i
n
g
S
e
t
S
i
z
e
B
a
t
c
h
S
i
z
e
Number\;of\;Batches\;=\;\frac{Training\;Set\;Size}{Batch\;Size}
NumberofBatches=BatchSizeTrainingSetSize
比如训练集有500个样本,
b
a
t
c
h
s
i
z
e
=
10
batchsize=10
batchsize=10,那么训练完整个样本集:
i
t
e
r
a
t
i
o
n
=
50
,
e
p
o
c
h
=
1
iteration=50,epoch=1
iteration=50,epoch=1。
可描述为:
1、提取特征向量作为输入。
2、定义神经网络结构。包括隐藏层数,激活函数等。
3、通过训练利用反向传播算法不断优化权重的值,使之达到最合理水平。
4、使用训练好的神经网络来预测未知数据(推理),这里训练好的网络就是指权重达到最优的情况。
可描述为:
1、选择样本集合的一个样本(Ai,Bi),Ai为数据、Bi为标签(所属类别)
2、送入网络,计算网络的实际输出Y,(此时网络中的权重应该都是随机量)
3、计算D=Bi-Y(即预测值和实际值相差多少)
4、根据误差D调整权重矩阵W
5、对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围
也可描述为:
1、参数的随机初始化
2、前向传播计算每个样本对应的输出节点激活函数值
3、计算损失函数
4、反向传播计算偏导数
5、计算梯度来进行梯度检查,以判断偏导数计算的正确性。如果正确就取消掉梯度检查。
6、使用梯度下降法或者先进的方法更新权值
权重初始化并不是简单的随机初始化,而是一项会影响训练性能的关键一步,而且有时候会依赖于选择的激活函数。如果仅仅是权重随机初始化为一些很小的随机数,他会打破梯度更新对称性。
1、权重参数初始化从区间均匀随机取值。
2、XAvier初始化(sigmod、tanh)
W
∼
U
[
−
6
H
k
+
H
k
+
1
,
6
H
k
+
H
k
+
1
]
W\sim U\left[-\frac{\sqrt6}{\sqrt{H_k+H_{k+1}}},\frac{\sqrt6}{\sqrt{H_k+H_{k+1}}}\right]
W∼U[−Hk+Hk+1
6
,Hk+Hk+1
6
]。
3、初始化为小的随机数(小型网络):比如,可以初始化为均值为0,方差为0.01的高斯分布。
4、权重初始化为正态分布(relu)。
5、MSRA Filler(relu):用均方差为0,方差为
4
n
i
n
+
n
o
u
t
\sqrt{\frac4{n_{in}+n_{out}}}
nin+nout4
的高斯分布。
6、偏置bias的初始化,一般初始化为0。
原因:由于进行分类器或模型的建立与训练时,输入的数据范围可能比较大,同时样本中各数据可能量纲不一致,这样的数据容易对模型训练或分类器的构建结果产生影响,因此需要对其进行标准化处理,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。
其中最典型的就是数据的归一化处理,即将数据统一映射到
[
0
,
1
]
[0,1]
[0,1]区间上。
y
=
x
−
m
i
n
m
a
x
−
m
i
n
y=\frac{x-min}{max-min}
y=max−minx−min
z-score标准化(零均值归一化zero-mean normalization)
1、第一层是输入层,包含两个神经元:
i
1
,
i
2
i_1,i_2
i1,i2和偏执
b
1
b_1
b1;
2、第二层是隐藏层,包含两个神经元:
h
1
,
h
2
h_1,h_2
h1,h2和偏执
b
2
b_2
b2;
3、第三层是输出:
o
1
,
o
2
o_1,o_2
o1,o2;
4、每条线上标的
w
i
w_i
wi是层与层之间连接的权重;
5、激活函数是sigmod函数;
6、用
z
z
z表示某个神经元的加权输入和;用
a
a
a表示某神经元的输出。
神经网络训练过程实例-Step 1 前向传播
输入层->隐藏层
神经元
h
1
h_1
h1的输入加权和:
z
h
1
=
w
1
i
1
+
w
2
i
2
+
b
1
=
0.15
∗
0.05
+
0.2
∗
0.1
+
0.35
=
0.3775
z_{h1}=w_1i_1+w_2i_2+b_1=0.15\ast0.05+0.2\ast0.1+0.35=0.3775
zh1=w1i1+w2i2+b1=0.15∗0.05+0.2∗0.1+0.35=0.3775
神经元
h
1
h_1
h1的输出
a
h
1
a_{h1}
ah1:
a
h
1
=
1
1
+
e
−
z
h
1
=
1
1
+
e
−
0.3775
=
0.593269992
a_{h1}=\frac1{1+e^{-z_{h1}}}=\frac1{1+e^{-0.3775}}=0.593269992
ah1=1+e−zh11=1+e−0.37751=0.593269992
同理可得,神经元
h
2
h_2
h2的输出
a
h
2
a_{h2}
ah2:
a
h
2
=
0.596884378
a_{h2}=0.596884378
ah2=0.596884378
隐藏层->输出层
计算输出层神经元
o
1
o_1
o1和
o
2
o_2
o2的值:
z
o
1
=
w
5
a
h
1
+
w
6
a
h
2
+
b
2
=
0.4
∗
0.593269992
+
0.45
∗
0.596884378
+
0.6
=
1.105905967
z_{o1}=w_5a_{h1}+w_6a_{h2}+b_2\\=0.4\ast0.593269992+0.45\ast0.596884378+0.6=1.105905967
zo1=w5ah1+w6ah2+b2=0.4∗0.593269992+0.45∗0.596884378+0.6=1.105905967
a
o
1
=
1
1
+
e
−
z
a
1
=
1
1
+
e
−
1.105905967
=
0.751365069
a_{o1}=\frac1{1+e^{-z_{a1}}}=\frac1{1+e^{-1.105905967}}=0.751365069
ao1=1+e−za11=1+e−1.1059059671=0.751365069
同理可得:
a
o
2
=
0.772928465
a_{o2}=0.772928465
ao2=0.772928465
前向传播的过程就结束了,我们得到的输出值是
[
0.751365069
,
0.772928465
]
[0.751365069,0.772928465]
[0.751365069,0.772928465],与实际值
[
0.01
,
0.99
]
[0.01,0.99]
[0.01,0.99]相差还很远。接下来我们对误差进行反向传播,更新权值,重新计算输出。
神经网络训练过程实例-Step 2反向传播
1、计算损失函数
E
t
o
t
a
l
=
∑
1
2
(
t
a
r
g
e
t
−
o
u
t
p
u
t
)
2
E_{total}=\underset{}{\sum\frac12{(target-output)}^2}
Etotal=∑21(target−output)2
两个输出,所以分别计算
o
1
o_1
o1和
o
2
o_2
o2的损失值,总误差为两者之和:
E
o
1
=
1
2
(
0.01
−
0.751365069
)
2
=
0.274811083
E
o
2
=
1
2
(
0.09
−
0.772928465
)
2
=
0.023560026
E
t
o
t
a
l
=
E
o
1
+
E
o
2
=
0.274811083
+
0.023560026
=
0.298371109
E_{o_1}=\frac12{(0.01-0.751365069)}^2=0.274811083\\E_{o_2}=\frac12{(0.09-0.772928465)}^2=0.023560026\\E_{total}=\underset{}{E_{o_1}+E_{o_2}=0.274811083+0.023560026=0.298371109}
Eo1=21(0.01−0.751365069)2=0.274811083Eo2=21(0.09−0.772928465)2=0.023560026Etotal=Eo1+Eo2=0.274811083+0.023560026=0.298371109
2、隐藏层->输出层的权值更新
以权重参数
w
5
w_5
w5为例,如果我们想知道
w
5
w_5
w5对整体损失产生了多少影响,可以用整体损失对
w
5
w_5
w5求骗导:
∂
E
t
o
t
a
l
∂
w
5
=
∂
E
t
o
t
a
l
∂
a
o
1
∗
∂
a
o
1
∂
z
o
1
∗
∂
z
o
1
∂
w
5
\frac{\partial E_{total}}{\partial w_5}=\frac{\partial E_{total}}{\partial a_{o1}}\ast\frac{\partial a_{o1}}{\partial z_{o1}}\ast\frac{\partial z_{o1}}{\partial w_5}
∂w5∂Etotal=∂ao1∂Etotal∗∂zo1∂ao1∗∂w5∂zo1
接下来分别计算每个式子的值:
计算
∂
E
t
o
t
a
l
∂
a
o
1
\frac{\partial E_{total}}{\partial a_{o1}}
∂ao1∂Etotal:
E
t
o
t
a
l
=
1
2
(
t
a
r
g
e
t
o
1
−
a
o
1
)
2
+
1
2
(
t
a
r
g
e
t
o
2
−
a
o
1
)
2
∂
E
t
o
t
a
l
∂
a
o
1
=
2
∗
1
2
(
t
a
r
g
e
t
o
1
−
a
o
1
)
∗
(
−
1
)
=
−
(
t
a
r
g
e
t
o
1
−
a
o
1
)
=
0.751365069
−
0.01
=
0.741365069
E_{total}=\frac12\left(target_{o1}-a_{o1}\right)^2+\frac12\left(target_{o2}-a_{o1}\right)^2\\\frac{\partial E_{total}}{\partial a_{o1}}=2\ast\frac12\left(target_{o1}-a_{o1}\right)\ast(-1)\\=-\left(target_{o1}-a_{o1}\right)=0.751365069-0.01=0.741365069
Etotal=21(targeto1−ao1)2+21(targeto2−ao1)2∂ao1∂Etotal=2∗21(targeto1−ao1)∗(−1)=−(targeto1−ao1)=0.751365069−0.01=0.741365069
计算
∂
E
t
o
t
a
l
∂
z
o
1
\frac{\partial E_{total}}{\partial z_{o1}}
∂zo1∂Etotal:
a
o
1
=
1
1
+
e
−
z
o
1
∂
a
o
1
∂
z
o
1
=
a
o
1
(
1
−
a
o
1
)
=
0.751365069
∗
(
1
−
0.751365069
)
=
0.186815602
a_{o1}=\frac1{1+e^{-z_{o1}}}\\\frac{\partial a_{o1}}{\partial z_{o1}}=a_{o1}(1-a_{o1})=0.751365069\ast(1-0.751365069)=0.186815602
ao1=1+e−zo11∂zo1∂ao1=ao1(1−ao1)=0.751365069∗(1−0.751365069)=0.186815602
计算
∂
z
o
1
∂
w
5
\frac{\partial z_{o1}}{\partial w_5}
∂w5∂zo1:
z
o
1
=
w
5
a
h
1
+
w
6
a
h
2
+
b
2
∂
z
o
1
∂
w
5
=
a
h
1
=
0.593269992
z_{o1}=w_5a_{h1}+w_6a_{h2}+b_2\\\frac{\partial z_{o1}}{\partial w_5}=a_{h1}=0.593269992
zo1=w5ah1+w6ah2+b2∂w5∂zo1=ah1=0.593269992
最后三者相乘:
z
o
1
=
w
5
a
h
1
+
w
6
a
h
2
+
b
2
∂
E
t
o
t
a
l
∂
w
5
=
0.741365069
∗
0.186815602
∗
0.593269992
=
0.082167041
z_{o1}=w_5a_{h1}+w_6a_{h2}+b_2\\\frac{\partial E_{total}}{\partial w_5}=0.741365069\ast0.186815602\ast0.593269992=0.082167041
zo1=w5ah1+w6ah2+b2∂w5∂Etotal=0.741365069∗0.186815602∗0.593269992=0.082167041
这样我们就算出整体损失
E
t
o
t
a
l
E_{total}
Etotal对
w
5
w_5
w5的偏导值。
z
o
1
=
w
5
a
h
1
+
w
6
a
h
2
+
b
2
∂
E
t
o
t
a
l
∂
w
5
=
−
(
t
a
r
g
e
t
o
1
−
a
o
1
)
∗
a
o
1
∗
(
1
−
a
o
1
)
∗
a
h
1
z_{o1}=w_5a_{h1}+w_6a_{h2}+b_2\\\frac{\partial E_{total}}{\partial w_5}=-\left(target_{o1}-a_{o1}\right)\ast a_{o1}\ast(1-a_{o1})\ast a_{h1}
zo1=w5ah1+w6ah2+b2∂w5∂Etotal=−(targeto1−ao1)∗ao1∗(1−ao1)∗ah1
针对上述公式,为了方便表达,使用
δ
o
1
\delta_{o1}
δo1来表示输出层的误差:
δ
o
1
=
∂
E
t
o
t
a
l
∂
a
o
1
∂
a
o
1
∂
z
o
1
=
∂
E
t
o
t
a
l
∂
z
o
1
=
−
(
t
a
r
g
e
t
o
1
−
a
o
1
)
∗
a
o
1
∗
(
1
−
a
o
1
)
\delta_{o1}=\frac{\partial E_{total}}{\partial a_{o1}}\frac{\partial a_{o1}}{\partial z_{o1}}=\frac{\partial E_{total}}{\partial z_{o1}}\\=-(target_{o1}-a_{o1})\ast a_{o1}\ast(1-a_{o1})
δo1=∂ao1∂Etotal∂zo1∂ao1=∂zo1∂Etotal=−(targeto1−ao1)∗ao1∗(1−ao1)
因此整体损失
E
t
o
t
a
l
E_{total}
Etotal对
w
5
w_5
w5的偏导值可以表示为:
∂
E
t
o
t
a
l
∂
w
5
=
δ
o
1
∗
a
h
1
\frac{\partial E_{total}}{\partial w_5}=\delta_{o1}\ast a_{h1}
∂w5∂Etotal=δo1∗ah1
最后更新
w
5
w_5
w5的值:
w
5
+
=
w
5
−
η
∂
E
t
o
t
a
l
∂
w
5
=
0.4
−
0.5
∗
0.82167041
=
0.35891648
w_5^+=w_5-\eta\frac{\partial E_{total}}{\partial w_5}=0.4-0.5\ast0.82167041=0.35891648
w5+=w5−η∂w5∂Etotal=0.4−0.5∗0.82167041=0.35891648
同理更新
w
6
,
w
7
,
w
8
w_6,w_7,w_8
w6,w7,w8:
w
6
+
=
0.408666186
w
7
+
=
0.511301270
w
8
+
=
0.561370121
w_6^+=0.408666186\\w_7^+=0.511301270\\w_8^+=0.561370121
w6+=0.408666186w7+=0.511301270w8+=0.561370121
2、隐藏层->隐藏层的权值更新
r
a
c
∂
E
t
o
t
a
l
∂
w
1
=
∂
E
t
o
t
a
l
∂
o
u
t
h
1
∂
o
u
t
h
1
∂
n
e
t
h
1
∂
n
e
t
h
1
∂
w
1
=
(
∂
E
o
1
∂
o
u
t
h
1
+
∂
E
o
2
∂
o
u
t
h
1
)
∂
o
u
t
h
1
∂
n
e
t
h
1
∂
n
e
t
h
1
∂
w
1
rac{\partial E_{total}}{\partial w_1}=\frac{\partial E_{total}}{\partial out_{h1}}\frac{\partial out_{h1}}{\partial net_{h1}}\frac{\partial net_{h1}}{\partial w_1}=\left(\frac{\partial E_{o1}}{\partial out_{h1}}+\frac{\partial E_{o2}}{\partial out_{h1}}\right)\frac{\partial out_{h1}}{\partial net_{h1}}\frac{\partial net_{h1}}{\partial w_1}
rac∂Etotal∂w1=∂outh1∂Etotal∂neth1∂outh1∂w1∂neth1=(∂outh1∂Eo1+∂outh1∂Eo2)∂neth1∂outh1∂w1∂neth1
计算
∂
E
t
o
t
a
l
∂
a
h
1
\frac{\partial E_{total}}{\partial a_{h1}}
∂ah1∂Etotal
∂
E
t
o
t
a
l
∂
a
h
1
=
∂
E
o
1
∂
a
h
1
+
∂
E
o
2
∂
a
h
1
\frac{\partial E_{total}}{\partial a_{h1}}=\frac{\partial E_{o1}}{\partial a_{h1}}+\frac{\partial E_{o2}}{\partial a_{h1}}
∂ah1∂Etotal=∂ah1∂Eo1+∂ah1∂Eo2
先计算
∂
E
o
1
∂
o
u
t
h
1
\frac{\partial E_{o1}}{\partial out_{h1}}
∂outh1∂Eo1
∂
E
o
1
∂
a
h
1
=
∂
E
o
1
∂
a
o
1
∗
∂
a
o
1
∂
z
o
1
∗
∂
z
o
1
∂
a
h
1
=
0.741365069
∗
0.18615602
∗
0.4
=
0.055399425
\frac{\partial E_{o1}}{\partial a_{h1}}=\frac{\partial E_{o1}}{\partial a_{o1}}\ast\frac{\partial a_{o1}}{\partial z_{o1}}\ast\frac{\partial z_{o1}}{\partial a_{h1}}\\=0.741365069\ast0.18615602\ast0.4=0.055399425
∂ah1∂Eo1=∂ao1∂Eo1∗∂zo1∂ao1∗∂ah1∂zo1=0.741365069∗0.18615602∗0.4=0.055399425
同理可得:
∂
E
o
2
∂
a
h
1
=
−
0.019049119
\frac{\partial E_{o2}}{\partial a_{h1}}=-0.019049119
∂ah1∂Eo2=−0.019049119
两者相加得:
∂
E
t
o
t
a
l
∂
a
h
1
=
0.055399425
−
0.019049119
=
0.036350306
\frac{\partial E_{total}}{\partial a_{h1}}=0.055399425-0.019049119=0.036350306
∂ah1∂Etotal=0.055399425−0.019049119=0.036350306
计算
∂
a
h
1
∂
z
h
1
\frac{\partial a_{h1}}{\partial z_{h1}}
∂zh1∂ah1
∂
a
h
1
∂
z
h
1
=
a
h
1
∗
(
1
−
a
h
1
)
=
0.593269992
∗
(
1
−
0.593269992
)
=
0.2413007086
\frac{\partial a_{h1}}{\partial z_{h1}}=a_{h1}\ast(1-a_{h1})=0.593269992\ast(1-0.593269992)=0.2413007086
∂zh1∂ah1=ah1∗(1−ah1)=0.593269992∗(1−0.593269992)=0.2413007086
计算
∂
a
h
1
∂
w
1
\frac{\partial a_{h1}}{\partial w_1}
∂w1∂ah1
∂
a
h
1
∂
w
1
=
i
1
=
0.05
\frac{\partial a_{h1}}{\partial w_1}=i_1=0.05
∂w1∂ah1=i1=0.05
最后三者相互乘:
∂
E
t
o
t
a
l
∂
w
1
=
0.036350306
∗
0.2413007086
∗
0.04
=
0.000438568
\frac{\partial E_{total}}{\partial w_1}=0.036350306\ast0.2413007086\ast0.04=0.000438568
∂w1∂Etotal=0.036350306∗0.2413007086∗0.04=0.000438568
为了简化公式,用
δ
h
1
\delta_{h1}
δh1表示隐藏层单元
h
1
h_1
h1的误差:
∂
E
t
o
t
a
l
∂
w
1
=
(
∑
i
∂
E
t
o
t
a
l
∂
a
i
∂
a
i
∂
z
i
∂
z
i
∂
h
1
)
∂
a
h
1
∂
z
h
1
∂
z
h
1
∂
w
1
=
(
∑
i
δ
i
w
h
i
)
∗
a
h
1
∗
(
1
−
a
h
1
)
∗
i
1
=
δ
h
1
∗
i
1
\frac{\partial E_{total}}{\partial w_1}=\left(\sum_i\frac{\partial E_{total}}{\partial a_i}\frac{\partial a_i}{\partial z_i}\frac{\partial z_i}{\partial h_1}\right)\frac{\partial a_{h1}}{\partial z_{h1}}\frac{\partial z_{h1}}{\partial w_1}\\=\left(\sum_i\delta_iw_{hi}\right)\ast a_{h1}\ast(1-a_{h1})\ast i_1=\delta_{h1}\ast i_1
∂w1∂Etotal=(∑i∂ai∂Etotal∂zi∂ai∂h1∂zi)∂zh1∂ah1∂w1∂zh1=(∑iδiwhi)∗ah1∗(1−ah1)∗i1=δh1∗i1
最后更新
w
1
w_1
w1的权值:
w
1
+
=
w
1
−
η
∂
E
t
o
t
a
l
∂
w
1
=
0.15
−
0.5
∗
0.0004358568
=
0.149780716
w_1^+=w_1-\eta\frac{\partial E_{total}}{\partial w_1}=0.15-0.5\ast0.0004358568=0.149780716
w1+=w1−η∂w1∂Etotal=0.15−0.5∗0.0004358568=0.149780716
同理,更新
w
2
,
w
3
,
w
4
w_2,w_3,w_4
w2,w3,w4的权值:
w
2
+
=
0.19956143
w
3
+
=
0.24975114
w
4
+
=
0.29950229
w_2^+=0.19956143\\w_3^+=0.24975114\\w_4^+=0.29950229
w2+=0.19956143w3+=0.24975114w4+=0.29950229
这样,反向传播算法就完成了,最后再把更新的权值重新计算,不停地迭代。
在这个例子中第一次迭代之后,总误差0.298371109下降至0.291027924.
迭代10000次后,总误差为0.000035085,输出为[0.015912196,0.984065734]
Keras由纯pyhton编写的基于theano/tensorflow的深度学习框架。
Keras是一个高层次神经网络API,支持快速实验,能够迅速将idea转化为结果,当有如下需求时,可以优先选择Keras:
1、简易和快速的原型设计(keras具有高度模块化,极简,可扩充特性)
2、支持CNN,RNN,或二者的结合
3、无缝CPU和GPU切换
Softmax用于多分类过程中,它将多个神经元的输出,映射到[0,1]区间内,可以看成概率来理解,从而来进行多分类。
假设有一组数据,
V
V
V,
V
i
V_i
Vi表示
V
V
V中的第
i
i
i个元素,那么这个元素的softmax值就是:
S
i
=
e
V
i
∑
j
e
V
j
S_i=\frac{e^{V_i}}{\sum_je^{V_j}}
Si=∑jeVjeVi
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。