赞
踩
训练(Training): 一个初始神经网络通过不断的优化自身参数,来让自己变得准确。这整个过程就称之为训练(Training)
推理(Inference): 你训练好了一个模型,在训练数据集中表现良好,但是我们的期望是它可以对以前没看过的图片进行识别。你重新拍一张图片扔进网络让网络做判断,这种图片就叫做现场数据(livedata),如果现场数据的区分准确率非常高,那么证明你的网络训练的是非常好的。这个过程,称为推理(Inference)。
Supervised Learning有监督式学习: 输入的数据被称为训练数据,一个模型需要通过一个训练过程,在这个过程中进行预期判断,如果错误了再进行修正,训练过程一直持续到基于训练数据达到预期的精确性。其关键方法是分类和回归,比如逻辑回归(Logistic Regression)和BP神经网络(Back
Propagation Neural Network)。
Unsupervised Learning无监督学习: 没有任何训练数据,基于没有标记的输入数据采取推导结构的模型,其关键方式是关联规则学习和聚合,比如k-means.
优化(optimization): 是指调节模型以在训练数据上得到最佳性能(即机器学习中的学习)。
泛化(generalization): 是指训练好的模型在前所未见的数据上的性能好坏。
深度学习的根本问题是优化和泛化之间的对立。
数据集可以分为:
训练集:实际训练算法的数据集;用来计算梯度,并确定每次迭代中网络权值的更新;
验证集:用于跟踪其学习效果的数据集;是一个指示器,用来表明训练数据点之间所形成的网络函数发生了什么,并且验证集上的误差值在整个训练过程中都将被监测;
测试集:用于产生最终结果的数据集 。
测试集特点(目的是确保测试集可以有效反映网络的泛化能力):
这里有一堆数据,我们把他切成3个部分(当然还可以分的更多)
第一部分做测试集,二三部分做训练集,算出准确度;
第二部分做测试集,一三部分做训练集,算出准确度;
第三部分做测试集,一二部分做训练集,算出准确度;
之后算出三个准确度的平局值,作为最后的准确度。
BP网络(Back-Propagation Network): 1986年被提出的,是一种按误差逆向传播算法训练的
多层前馈网络,是目前应用最广泛的神经网络模型之一,用于函数逼近、模型识别分类、数据压
缩和时间序列预测等。
特点: BP网络又称为反向传播神经网络,它是一种有监督的学习算法,具有很强的自适应、自学习、非线性映射能力,能较好地解决数据少、信息贫、不确定性问题,且不受非线性模型的限制。一个典型的BP网络应该包括三层:输入层、隐藏层和输出层。各层之间全连接,同层之间无连接。
隐藏层可以有很多层。
通俗来讲,我们利用神经网络去解决图像分割,边界探测等问题时候,我们的输入(假设为x),与期望的输出(假设为y)之间的关系究竟是什么?也就是y=f(x)中,f是什么,我们也不清楚,但是我们
对一点很确信,那就是f不是一个简单的线性函数,应该是一个抽象的复杂的关系,那么利用神
经网络就是去学习这个关系,存放在model中,利用得到的model去推测训练集之外的数据,得
到期望的结果。
正向传播: 输入信号从输入层经过各个隐藏层向输出层传播。在输出层得到实际的响应值,若实际值与期望值误差较大,就会转入误差反向传播阶段。
反向传播: 按照梯度下降的方法从输出层经过各个隐含层并逐层不断地调整各神经元的连接权值和阈值,反复迭代,直到网络输出的误差减少到可以接受的程度,或者进行到预先设定的学习次数。
代(Epoch): 使用训练集的全部数据对模型进行一次完整训练,被称为“一代训练”。
批大小(Batch size): 使用训练集的一小部分样本对模型权重进行一次反向传播的参数更新,这一小部分样本被称为“一批数据”
迭代(Iteration): 使用一个Batch数据对模型进行一次参数更新的过程,被称为“一次训练”(一次迭代)。每一次迭代得到的结果都会被作为下一次迭代的初始值。一个迭代=一个正向通过+一个反向通过。
比如训练集有500个样本,batchsize = 10 ,那么训练完整个样本集:iteration=50,epoch=1.
下面由抽象到具体来描述神经网络的训练过程:
流程描述(概述):
流程描述(数据角度):
流程描述(具体实现):
参数随机初始化的问题背景: 对于所有的参数我们必须初始化它们的值,而且它们的初始值不能设置成一样,比如都设置成0或1。如果设置成一样那么更新后所有参数都会相等。即所有神经元的功能都相等,造成了高度冗余。所以我们必须随机化初始参数。
特别的,如果神经网络没有隐藏层,则可以把所有参数初始化为0。(但这也不叫深度神经网络了)
参数随机初始化的方法: 权重初始化并不是简单的随机初始化,而是一项会影响训练性能的关键一步,而且有时候会依赖于选择的激活函数。如果仅仅是将权重随机初始化为一些很小的随机数,它会打破梯度更新对称性
标准化(Normailization):
背景:由于进行分类器或模型的建立与训练时,输入的数据范围可能比较大,同时样本中各数据可
能量纲不一致,这样的数据容易对模型训练或分类器的构建结果产生影响,因此需要对其进行标准
化处理,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行
比较和加权。
y = x − m i n m a x − m i n y=\frac{x-min}{max-min} y=max−minx−min
z-score标准化(零均值归一化zero-mean normalization):
经过处理后的数据均值为0,标准差为1(正态分布)
其中μ是样本的均值, σ是样本的标准差
y
=
x
−
μ
σ
y=\frac{x-\mu}{\sigma}
y=σx−μ
损失函数用于描述模型预测值与真实值的差距大小。一般有有两种常见的算法——均值平方差
(MSE)和交叉熵。
均值平方差(Mean Squared Error,MSE),也称“均方误差”:
M
S
E
=
∑
i
=
1
n
1
n
(
f
(
x
i
)
−
y
i
)
2
MSE=\sum_{i=1}^{n}\frac{1}{n}(f(x_i)-y_i)^2
MSE=i=1∑nn1(f(xi)−yi)2
交叉熵(cross entropy)也是loss算法的一种,一般用在分类问题上,表达意思为预测输入
样本属于哪一类的概率。值越小,代表预测结果越准。(y代表真实值分类(0或1),a代
表预测值):
C
=
−
1
n
∑
x
[
y
l
n
a
+
(
1
−
y
)
l
n
(
1
−
a
)
]
C=-\frac{1}{n}\sum_{x}[ylna+(1-y)ln(1-a)]
C=−n1x∑[ylna+(1−y)ln(1−a)]
损失函数的选取取决于输入标签数据的类型:
梯度:
∇
f
=
(
∂
f
∂
x
1
,
∂
f
∂
x
2
,
.
.
.
)
\nabla f=(\frac{\partial f}{\partial x_1},\frac{\partial f}{\partial x_2},...)
∇f=(∂x1∂f,∂x2∂f,...)
梯度的方向表示函数值增大的方向,梯度的模表示函数值增大的速率。
那么只要不断将参数的值向着梯度的反方向更新一定大小,就能得到函数的最小值(全局最小值或者局部最小值)。
学习率(learning rate): 学习率是一个重要的超参数,它控制着我们基于损失梯度调整神经网络权值的速度。从长远来看,这种谨慎慢行的选择可能还不错,因为可以避免错过任何局部最优解,但它也意味着我们要花更多时间来收敛,尤其是如果我们处于曲线的至高点。
新权值 = 当前权值 - 学习率 × 梯度
学习率越小,我们沿着损失梯度下降的速度越慢。
梯度参数的更新: 一般利用梯度更新参数时会将梯度乘以一个小于1的学习速率(learning rate),这是因为往往梯度的模还是比较大的,直接用其更新参数会使得函数值不断波动,很难收敛到一个平衡点(这也是学习率不宜过大的原因)。
θ
t
+
1
=
θ
t
−
α
t
∇
f
(
θ
t
)
\theta_{t+1}=\theta_t-\alpha_t\nabla f(\theta_t)
θt+1=θt−αt∇f(θt)
梯度下降法:
∂
E
∂
w
j
k
=
−
(
t
k
−
o
k
)
⋅
s
i
g
m
o
i
d
(
∑
j
w
j
k
⋅
o
j
)
(
I
−
s
i
g
m
o
i
d
(
∑
j
w
j
k
⋅
o
j
)
)
⋅
o
j
\frac{\partial E}{\partial w_{jk}}=-(t_k-o_k)\cdot sigmoid(\sum_jw_{jk}\cdot o_j)(I-sigmoid(\sum_jw_{jk}\cdot o_j))\cdot o_j
∂wjk∂E=−(tk−ok)⋅sigmoid(j∑wjk⋅oj)(I−sigmoid(j∑wjk⋅oj))⋅oj
−
(
t
k
−
o
k
)
-(t_k-o_k)
−(tk−ok):正确结果与节点输出解果的差值,也就是误差
s i g m o i d ( ∑ j w j k ⋅ o j ) sigmoid(\sum_jw_{jk}\cdot o_j) sigmoid(∑jwjk⋅oj):节点的激活函数,所有输入该节点的链路把经过其上的信号与链路权重做乘积后加总,再把加总结果进行激活函数运算;
o j o_j oj:链路 w j k w_{jk} wjk前端节点输出的信号值。
过拟合现象: 过拟合指的是给定一堆数据,这堆数据带有噪声,利用模型去拟合这堆数据,可能会把噪声数据也给拟合了。
过拟合的影响:
过拟合出现的原因:
建模样本选取了错误的选样方法、样本标签等,或样本数量太少,所选取的样本数据不足以代表预定的分类规则
样本噪音干扰过大,使得机器将部分噪音认为是特征从而扰乱了预设的分类规则
假设的模型无法合理存在,或者说是无法达到假设成立的条件
参数太多导致模型复杂度过高
对于神经网络模型:
a)对样本数据可能存在分类决策面不唯一,随着学习的进行,,BP算法使权值可能收敛过于复杂的决策面;
b)权值学习迭代次数足够多,拟合了训练数据中的噪声和训练样例中没有代表性的特征。
过拟合的解决方法:
Early Stopping:
那么该做法的一个重点便是怎样才认为validation accurary不再提高了呢?并不是说validation
accuracy一降下来便认为不再提高了,因为可能经过这个Epoch后,accuracy降低了,但是随后的Epoch又让accuracy又上去了,所以不能根据一两次的连续降低就判断不再提高。一般的做法是,在训练的过程中,记录到目前为止最好的validation accuracy,当连续10次Epoch(或者更多次)没达到最佳accuracy时,则可以认为accuracy不再提高了。此时便可以停止迭代了(Early Stopping)。这种策略也称为“No-improvement-in-n”,n即Epoch的次数,可以根据实际情况取,如10、20、30
Dropout:
在神经网络中,dropout方法是通过修改神经网络本身结构来实现的:
Dropout方法是通过修改ANN中隐藏层的神经元个数来防止ANN的过拟合。
Dropout作用原理:
这样权值的更新不再依赖有固定关系隐含节点的共同作用,阻止了某些特征仅仅在其他特定特征下才有效果的情况。
总结:Dropout是一个非常有效的神经网络模型平均方法,通过训练大量的不同的网络,来平均预测概率。不同的模型在不同的训练集上训练(每个epoch的训练数据都是随机选择),最后在每个模型用相同的权重来“融合”。
经验:
个人学习笔记,仅学习交流,转载请注明出处!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。