当前位置:   article > 正文

注意力机制——Convolutional Block Attention Module(CBAM)

convolutional block attention module

Convolutional Block Attention Module(CBAM)CBAM是一种组合模型,将通道注意力和空间注意力相结合,以提高模型的表现力。

CBAM 模块包括两个注意力子模块:通道注意力模块和空间注意力模块。通道注意力模块用于计算每个通道的重要性,以便更好地区分不同通道之间的特征。空间注意力模块则用于计算每个像素在空间上的重要性,以便更好地捕捉图像中的空间结构。

通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。这个向量用于加权输入特征图中的每个通道,从而更好地区分不同通道的特征。

空间注意力模块通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。这个张量用于对每个像素在空间上进行加权,从而更好地捕捉图像中的空间结构。

CBAM 模块的整体结构如下图所示:

 在图中,绿色框表示通道注意力模块,橙色框表示空间注意力模块。通过将这两个模块串联起来,可以得到一个完整的 CBAM 模块,用于插入到卷积神经网络中以提升模型性能。

用pytorch实现CBAM:

  1. import torch
  2. import torch.nn as nn
  3. import torch.nn.functional as F
  4. class ChannelAttention(nn.Module):
  5. def __init__(self, in_channels, reduction_ratio=16):
  6. super(ChannelAttention, self).__init__()
  7. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  8. self.max_pool = nn.AdaptiveMaxPool2d(1)
  9. self.fc1 = nn.Conv2d(in_channels, in_channels // reduction_ratio, 1, bias=False)
  10. self.relu = nn.ReLU()
  11. self.fc2 = nn.Conv2d(in_channels // reduction_ratio, in_channels, 1, bias=False)
  12. self.sigmoid = nn.Sigmoid()
  13. def forward(self, x):
  14. avg_out = self.fc2(self.relu(self.fc1(self.avg_pool(x))))
  15. max_out = self.fc2(self.relu(self.fc1(self.max_pool(x))))
  16. out = avg_out + max_out
  17. return self.sigmoid(out)
  18. class SpatialAttention(nn.Module):
  19. def __init__(self, kernel_size=7):
  20. super(SpatialAttention, self).__init__()
  21. assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
  22. padding = 3 if kernel_size == 7 else 1
  23. self.conv = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
  24. self.sigmoid = nn.Sigmoid()
  25. def forward(self, x):
  26. avg_out = torch.mean(x, dim=1, keepdim=True)
  27. max_out, _ = torch.max(x, dim=1, keepdim=True)
  28. x = torch.cat([avg_out, max_out], dim=1)
  29. x = self.conv(x)
  30. return self.sigmoid(x)
  31. class CBAM(nn.Module):
  32. def __init__(self, in_channels, reduction_ratio=16, kernel_size=7):
  33. super(CBAM, self).__init__()
  34. self.channel_att = ChannelAttention(in_channels, reduction_ratio)
  35. self.spatial_att = SpatialAttention(kernel_size)
  36. def forward(self, x):
  37. out = self.channel_att(x) * x
  38. out = self.spatial_att(out) * out
  39. return out

以上代码中实现了 CBAM 模块的两个子模块:通道注意力模块(ChannelAttention)和空间注意力模块(SpatialAttention),以及整个 CBAM 模块(CBAM)。

其中通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。空间注意力模块则通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。CBAM 模块则将这两个子模块串联起来,用于插入到卷积神经网络中以提升模型性能。

在模型中使用CBAM模块:

  1. class MyModel(nn.Module):
  2. def __init__(self):
  3. super(MyModel, self).__init__()
  4. self.conv1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)
  5. self.cbam1 = CBAM(64)
  6. self.conv2 = nn.Conv2d(64, 128, kernel_size=3, padding=1)
  7. self.cbam2 = CBAM(128)
  8. self.conv3 = nn.Conv2d(128, 256, kernel_size=3, padding=1)
  9. self.cbam3 = CBAM(256)
  10. self.fc = nn.Linear(256 * 8 * 8, 10)
  11. def forward(self, x):
  12. x = F.relu(self.conv1(x))
  13. x = self.cbam1(x)
  14. x = F.max_pool2d(x, kernel_size=2, stride=2)
  15. x = F.relu(self.conv2(x))
  16. x = self.cbam2(x)
  17. x = F.max_pool2d(x, kernel_size=2, stride=2)
  18. x = F.relu(self.conv3(x))
  19. x = self.cbam3(x)
  20. x = F.max_pool2d(x, kernel_size=2, stride=2)
  21. x = x.view(x.size(0), -1)
  22. x = self.fc(x)
  23. return x

这是一个简单的卷积神经网络,其中包含三个卷积层和三个CBAM模块,最终使用一个全连接层将特征映射转换为预测标签。在前向传递过程中,输入特征图通过卷积层和CBAM模块进行特征提取和特征增强,然后通过最大池化层将特征图的空间尺寸降低,最终通过全连接层输出预测标签。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/291026?site
推荐阅读
相关标签
  

闽ICP备14008679号