赞
踩
卷积层:特征提取;
采样层:特征选择;
全连接层:根据特征进行分类。
max-pooling:克服卷积层权值参数误差;
average-pooling:克服卷积核邻域大小受限。
全连接层(FC) 可以看为和上一个采样层(pooling) 中存在一个卷积操作。如:上一个采样层维数为3*3*5
,而全连接层维数为1*4096
。那么中间可以看做存在一个3*3*5*4096
的卷积层进行了卷积操作。
这一步操作相当于把前面提取出的分布式特征映射到样本标记空间。即忽略特征之间的相对位置信息(空间结构特性),把所有特征整合到一起输出为一个值。
FC 的层数越多,越能表达非线性问题。但由于参数量大,会降低学习效率。因此,新提出的网络模型如 ResNet 和 GoogLeNet 采用全局平均池化(global average pooling,GAP)取代 FC 来融合学习到的特征,这样得到的网络通常具有更好的预测性能。
在CNN中激活函数的引入,为了解决以下几个问题:
因此激活函数的引入有如下作用:
Dropout_rate一般设置为0.3~0.5之间。
在训练时要对没有被Dropout的神经元权值做一个rescale:
r
e
s
c
a
l
e
_
r
a
t
e
=
1
1
−
d
r
o
p
o
u
t
_
r
a
t
e
rescale\_rate = \frac{1}{1-dropout\_rate}
rescale_rate=1−dropout_rate1
因此训练过程中前向传播公式可以写为:
r
(
l
)
=
B
e
r
n
o
u
l
l
i
(
p
)
r^{(l)} = Bernoulli(p)
r(l)=Bernoulli(p)
y
~
(
l
)
=
r
(
l
)
⋅
y
(
l
)
\tilde{y}^{(l)} = r^{(l)}\cdot y^{(l)}
y~(l)=r(l)⋅y(l)
Z
i
(
l
+
1
)
=
W
i
l
+
1
⋅
y
~
(
l
)
+
b
i
l
+
1
Z_{i}^{(l+1)} = W_{i}^{l+1} \cdot \tilde{y}^{(l)} + b_{i}^{l+1}
Zi(l+1)=Wil+1⋅y~(l)+bil+1
y
i
(
l
+
1
)
=
f
(
z
i
(
l
+
1
)
)
y_{i}^{(l+1)} = f(z_{i}^{(l+1)})
yi(l+1)=f(zi(l+1))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。