赞
踩
BatchNorm与LayerNorm的异同、
batchnorm 和layernorm的区别
相同点:都是让该层参数稳定下来,避免梯度消失或者梯度爆炸,方便后续的学习。
不同点:
BN
CV领域
。(比如3维特征的图像在做BN时,相当于对不同样本的同一通道
内的特征做标准化。)LN
:
NLP领域
。因为NLP或者序列任务来说,一条样本的不同特征,其实就是时序上字符取值的变化,样本内的特征关系是非常紧密的。3维特征的图像在做BN时,相当于对不同样本的同一通道
内的特征做标准化。如下的粉色切片
:
BatchNorm2d 实现案例:
具体举例说明,如下所示,输入feature_map维度为 2 x 2 x 2 x 2
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。