当前位置:   article > 正文

layerNorm和batchNorm

layernorm和batchnorm

1、异同点

BatchNorm与LayerNorm的异同
batchnorm 和layernorm的区别

相同点:都是让该层参数稳定下来,避免梯度消失或者梯度爆炸,方便后续的学习。
不同点:
BN

  • 对不同样本的同一特征做标准化(标准正态分布),抹杀了不同特征之间的大小关系,但是保留了不同样本间的大小关系;
  • BN 需要在训练过程中,滑动平均累积每个神经元的均值和方差,并保存在模型文件中用于推理过程,而 LN 不需要。
  • 更适用于CV领域。(比如3维特征的图像在做BN时,相当于对不同样本的同一通道内的特征做标准化。)

LN

  • 对同一样本的不同特征做标准化(标准正态分布),抹杀了不同样本间的大小关系,但是保留了一个样本内不同特征之间的大小关系。
  • 更适用于NLP领域。因为NLP或者序列任务来说,一条样本的不同特征,其实就是时序上字符取值的变化,样本内的特征关系是非常紧密的。

2、图解

(1)1d Norm图

一维

(2)2d Norm图

BatchNorm2d 讲解 及 illustration

3维特征的图像在做BN时,相当于对不同样本的同一通道内的特征做标准化。如下的粉色切片
在这里插入图片描述
BatchNorm2d 实现案例
具体举例说明,如下所示,输入feature_map维度为 2 x 2 x 2 x 2在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/458198
推荐阅读
  

闽ICP备14008679号