当前位置:   article > 正文

Dropout层到底在干些什么(Pytorch实现)

dropout层

一、基本概念

1.正则化(Regularization):通过对问题的求解目标增加一定的先验限制或约束,引导问题的求解。
2.过拟合(Overfitting):指所得网络泛化能力差,表现为网络训练误差小,测试误差大,网络在训练集上表现极好,而在测试集上表现一般甚至很差。
3.伯努利分布(Bernoulli distribution):对于随机变量X,有参数p(0<p<1),分别以概率p、1-p取1、0为值。记为X~B(1,p),表示一次伯努利实验中X为1的概率为p。
4.Dropout通过对其输入进行一定概率的“舍弃”起到一种正则化的作用,可有效缓解网络过拟合。

二、Dropout工作原理

1.Dropout工作流程

在这里插入图片描述
对于一个正常的全连接网络而言,当前层每个神经元的值由前一层所有神经元共同决定,对于输入X,沿着网络前向传播,然后将误差回传,以此更新神经元之间的权重以及偏置参数。
当我们对其中的隐藏层使用Dropout后,隐藏层中的神经元以一定概率“睡眠”,通过对其随机置零实现,其更新参数的过程也发生了一些改变,具体地,过程如下

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/951709
推荐阅读
相关标签
  

闽ICP备14008679号