当前位置:   article > 正文

BatchNorm、LayerNorm详细过程及示例_Pytorch_深度学习-layernorm和batchnorm举例子

深度学习-layernorm和batchnorm举例子

一、BatchNorm

1、对batch中的每个维度进行归一化

y = x − E [ x ] V a r [ x ] y=\frac{x-E[x]}{\sqrt{Var[x]}} y=Var[x] xE[x]其中: E [ x ] = 1 n ∑ i = 1 n x i , V a r [ x ] = 1 n ∑ i = 1 n ( x i − E [ x ] ) 2 E[x]=\frac{1}{n}\sum_{i=1}^nx_i,Var[x]=\frac{1}{n}\sum_{i=1}^n(x_i-E[x])^2 E[x]=n1i=1nxi,Var[x]=n1i=1n(xiE[x])2
在这里插入图片描述

2、pytorch示例

import torch
from torch import nn
m = nn.BatchNorm1d(3)
input = torch.tensor([[10., 2., 100.], 
                      [2., 3., 100.], 
                      [3., 40., 400.], 
                      [5., 3., 200.]], dtype=torch.float32)
print(input)
output = m(input)
print(output)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
tensor([[ 10.,   2., 100.],
        [  2.,   3., 100.],
        [  3.,  40., 400.],
        [  5.,   3., 200.]])
tensor([[ 1.6222, -0.6184, -0.8165],
        [-0.9733, -0.5566, -0.8165],
        [-0.6489,  1.7315,  1.6330],
        [ 0.0000, -0.5566,  0.0000]], grad_fn=<NativeBatchNormBackward>)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

二、LayerNorm

1、对一个样本的d个维度进行归一化

y = x − E [ x ] V a r [ x ] y=\frac{x-E[x]}{\sqrt{Var[x]}} y=Var[x] xE[x]其中: E [ x ] = 1 n ∑ i = 1 n x i , V a r [ x ] = 1 n ∑ i = 1 n ( x i − E [ x ] ) 2 E[x]=\frac{1}{n}\sum_{i=1}^nx_i,Var[x]=\frac{1}{n}\sum_{i=1}^n(x_i-E[x])^2 E[x]=n1i=1nxi,Var[x]=n1i=1n(xiE[x])2
在这里插入图片描述

2、pytorch示例

import torch
from torch import nn
n = nn.LayerNorm(3)
input = torch.tensor([[10., 2., 12.],
                      [2., 3., 7.],
                      [100., 10., 1.],
                      [1., 1., 1.]], dtype=torch.float32)
print(input)
output = n(input)
print(output)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
tensor([[ 10.,   2.,  12.],
        [  2.,   3.,   7.],
        [100.,  10.,   1.],
        [  1.,   1.,   1.]])
tensor([[ 0.4629, -1.3887,  0.9258],
        [-0.9258, -0.4629,  1.3887],
        [ 1.4094, -0.6040, -0.8054],
        [ 0.0000,  0.0000,  0.0000]], grad_fn=<NativeLayerNormBackward>)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/458204
推荐阅读
相关标签
  

闽ICP备14008679号