赞
踩
在这篇博客中你可以学到
当训练一个深度神经网络时, 我们可以随机丢弃一部分神经元(同时丢弃其对应的连接边)来避免过拟合,这种方法就称为dropout(丢弃法)。
每次选择丢弃的神经元是随机的.最简单的方法是设置一个固定的概率 p.对每一个神经元都以概率 p 随机丢弃(即置0),其原理如下:
上图,Bernoulli是概率p的伯努利分布,取值为0或1,即该分布中的每一个元素取值为0的概率是p, y ( l ) y_{}^{\left( l \right)} y(l)表示第 l l l 个全连接层(或卷积层),x是特征向量
在没有使用dropout的情况下,第 l l l 层的神经元的值经过线性(或卷积)运算后,通过激活函数输出。
如果使用了dropout,第 l l l 层的神经元的值乘上概率为p的Bernoulli分布,假如第 l l l 层有10个神经元,那么产生的Bernoulli分布可能是 [ 0 , 1 , 1 ,
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。