当前位置:   article > 正文

YOLOX改进之一:添加CBAM、SE、ECA注意力机制_yolox改进点

yolox改进点

前 言:之前发布系列已经有对2020年发布的YOLOv5进行改进,不少朋友咨询YOLOX改进方法,本系列就重点对YOLOX如何改进进行详细介绍,基本跟YOLOv5一致,有细微差异。此后的系列文章,将重点对YOLOX的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。

需要更多程序资料以及答疑欢迎大家关注——微信公众号:人工智能AI算法工程师 

解决问题:本文以加入CBAM双通道注意力机制为例,可以让网络更加关注待检测目标,提高检测效果,解决复杂环境背景下容易错漏检的情况。

添加方法:

第一步:确定添加的位置,作为即插即用的注意力模块,可以添加到YOLOX网络中的任何地方。本文以添加进卷积Conv模块中为例。

第二步:darknet.py构建CBAM模块。部分代码如下。

  1. class SE(nn.Module):
  2. def __init__(self, channel, ratio=16):
  3. super(SE, self).__init__()
  4. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  5. self.fc = nn.Sequential(
  6. nn.Linear(channel, channel // ratio, bias=False),
  7. nn.ReLU(inplace=True),
  8. nn.Linear(channel // ratio, channel, bias=False),
  9. nn.Sigmoid()
  10. )
  11. def forward(self, x):
  12. b, c, _, _ = x.size()
  13. y = self.avg_pool(x).view(b, c)
  14. y = self.fc(y).view(b, c, 1, 1)
  15. return x * y
  16. class ECA(nn.Module):
  17. def __init__(self, channel, b=1, gamma=2):
  18. super(ECA, self).__init__()
  19. kernel_size = int(abs((math.log(channel, 2) + b) / gamma))
  20. kernel_size = kernel_size if kernel_size % 2 else kernel_size + 1
  21. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  22. self.conv = nn.Conv1d(1, 1, kernel_size=kernel_size, padding=(kernel_size - 1) // 2, bias=False)
  23. self.sigmoid = nn.Sigmoid()
  24. def forward(self, x):
  25. y = self.avg_pool(x)
  26. y = self.conv(y.squeeze(-1).transpose(-1, -2)).transpose(-1, -2).unsqueeze(-1)
  27. y = self.sigmoid(y)
  28. return x * y.expand_as(x)
  29. class ChannelAttention(nn.Module):
  30. def __init__(self, in_planes, ratio=8):
  31. super(ChannelAttention, self).__init__()
  32. self.avg_pool = nn.AdaptiveAvgPool2d(1)
  33. self.max_pool = nn.AdaptiveMaxPool2d(1)
  34. # 利用1x1卷积代替全连接
  35. self.fc1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False)
  36. self.relu1 = nn.ReLU()
  37. self.fc2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False)
  38. self.sigmoid = nn.Sigmoid()
  39. def forward(self, x):
  40. avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
  41. max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x))))
  42. out = avg_out + max_out
  43. return self.sigmoid(out)
  44. class SpatialAttention(nn.Module):
  45. def __init__(self, kernel_size=7):
  46. super(SpatialAttention, self).__init__()
  47. assert kernel_size in (3, 7), 'kernel size must be 3 or 7'
  48. padding = 3 if kernel_size == 7 else 1
  49. self.conv1 = nn.Conv2d(2, 1, kernel_size, padding=padding, bias=False)
  50. self.sigmoid = nn.Sigmoid()
  51. def forward(self, x):
  52. avg_out = torch.mean(x, dim=1, keepdim=True)
  53. max_out, _ = torch.max(x, dim=1, keepdim=True)
  54. x = torch.cat([avg_out, max_out], dim=1)
  55. x = self.conv1(x)
  56. return self.sigmoid(x)
  57. # CBAM注意力机制
  58. class CBAM(nn.Module):
  59. def __init__(self, channel, ratio=8, kernel_size=7):
  60. super(CBAM, self).__init__()
  61. self.channelattention = ChannelAttention(channel, ratio=ratio)
  62. self.spatialattention = SpatialAttention(kernel_size=kernel_size)
  63. def forward(self, x):
  64. x = x*self.channelattention(x)
  65. x = x*self.spatialattention(x)
  66. return x

第三步:yolo_pafpn.py中注册我们进行修改的CBAM模块

  1. self.cbam_1 = CBAM(int(in_channels[2] * width)) # 对应dark5输出的1024维度通道
  2. self.cbam_2 = CBAM(int(in_channels[1] * width)) # 对应dark4输出的512维度通道
  3. self.cbam_3 = CBAM(int(in_channels[0] * width)) # 对应dark3输出的256维度通道
  4. def forward(self, input):
  5. """
  6. Args:
  7. inputs: input images.
  8. Returns:
  9. Tuple[Tensor]: FPN feature.
  10. """
  11. # backbone
  12. out_features = self.backbone(input)
  13. features = [out_features[f] for f in self.in_features]
  14. [x2, x1, x0] = features
  15. # 3、直接对输入的特征图使用注意力机制
  16. x0 = self.cbam_1(x0)
  17. x1 = self.cbam_2(x1)
  18. x2 = self.cbam_3(x2)

结 果:本人在多个数据集上做了大量实验,针对不同的数据集效果不同,同一个数据集的不同添加位置方法也是有差异,需要大家进行实验。有效果有提升的情况占大多数。

需要更多完整程序资料以及答疑欢迎大家关注——微信公众号:人工智能AI算法工程师 

PS:CBAM等多种注意力机制,不仅仅是可以添加进YOLOX,也可以添加进任何其他的深度学习网络,不管是分类还是检测还是分割,主要是计算机视觉领域,都可能会有不同程度的提升效果。

最后,希望能互粉一下,做个朋友,一起学习交流。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/829250
推荐阅读
相关标签
  

闽ICP备14008679号