当前位置:   article > 正文

SEnet 通道注意力机制_通道注意力机制的输入

通道注意力机制的输入

SENet 在于通过网络根据loss去学习特征权重,获取到每个feature map的重要程度,然后用这个重要程度去给每一个特征通道赋予一个权重值,从而让神经网络去重点关注某些feature map , 使得有效的feature map权重大,无效或效果小的feature map权重小,使模型达到更好的效果,同时也不可避免的增加了一些参数和计算量。

2.SENet注意力机制 结构

在这里插入图片描述

输入input是一个H x W x C 的特征,共C个通道,然后进行一个空间的全局平均池化,每个通道得到一个标量,输出为 1 x 1 x C , 然后再送入两层的全连接神经网络,同时保持size不变,然后再通过一个Sigmoid函数得到C个0~1之间的权重Mc,格式为1 x 1 x C,作为C个通道各自的权重,然后Mc x input得到输出feature map(对应通道的每个元素与权重分别相乘)。

2.1 squeeze:

在空间维度上进行特征压缩,得到1 x 1 x C 的通道描述,这个feature map具有全局的感受野,也就是说将一个通道上的整个空间信息压缩为一个全局特征,最后得到C个全局特征,采用global average pooling 实现。公式如下:

在这里插入图片描述

2.2 excitation:

squeeze得到1 x 1 x C的feature map 后,再通过FC -> Relu -> FC -> Sigmoid学习通道间的关系,第一个FC将1 x 1 x C 压缩为1 x 1 x C/r(r取16时效果最好) ,然后第二个FC再扩充为1 x 1 x C。

2.3 scale:

scale操作是将前面学习到的各个通道的权重系数Mc通过乘法与对应通道所有元素相乘,以便实现重要的特征增强,不重要的特征减弱 ,从而让提取的特征指向性更强。

3.code:
class SENet(nn.Module):
    def __init__(self , in_planes , ration = 16):
        super(SENet, self).__init__()

        '''
        AdaptiveAvgPool2d():自适应平均池化
                            不需要自己设置kernelsize stride等
                            只需给出输出尺寸即可
        '''

        self.avg_pool = nn.AdaptiveAvgPool2d(1) # 通道数不变,H*W变为1*1
        self.fc1 = nn.Conv2d(in_planes , in_planes // 16 , 1 , bias = False)
        self.relu1 = nn.ReLU()
        self.fc2 = nn.Conv2d(in_planes//16 , in_planes ,1, bias = False)
        self.sigmoid = nn.Sigmoid()
    def forward(self , x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        return self.sigmoid(out)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/290844
推荐阅读
相关标签
  

闽ICP备14008679号