当前位置:   article > 正文

YOLOv9改进策略 | SPPF篇 | 利用RT-DETR的AIFI模块替换SPPFELAN助力小目标检测涨点

YOLOv9改进策略 | SPPF篇 | 利用RT-DETR的AIFI模块替换SPPFELAN助力小目标检测涨点

 一、本文介绍

本文给大家带来是用最新的RT-DETR模型中的AIFI模块来替换YOLOv9中的SPPFELAN。RT-DETR号称是打败YOLO的检测模型,其作为一种基于Transformer的检测方法,相较于传统的基于卷积的检测方法,提供了更为全面和深入的特征理解,将RT-DETR中的一些先进模块融入到YOLOv9往往能够达到一些特殊的效果。同时欢迎大家订阅本专栏,本专栏每周更新3-5篇最新机制,更有包含我所有改进的文件和交流群提供给大家。同时本专栏目前改进基于yolov9.yaml文件,后期如果官方放出轻量化版本,专栏内所有改进也会同步更新,请大家放心,本文提供三种使用方式,下面图片为yaml1对应的结构图。

专栏地址:YOLOv9有效涨点专栏-持续复现各种顶会内容-有效涨点-全网改进最全的专栏  

目录

 一、本文介绍

二、RT-DETR的AIFI框架原理

2.1 AIFI的基本原理

三、AIFI的完整代码

四、手把手教你添加AIFI模块

4.1 细节修改教程

4.1.1 修改一

​4.1.2 修改二

4.1.3 修改三 

4.1.4 修改四

4.2 AIFI的yaml文件

4.3 AIFI运行成功截图

五、本文总结 


二、RT-DETR的AIFI框架原理

​​​​

论文地址:RT-DETR论文地址

代码地址:RT-DETR官方下载地址

​​​​


2.1 AIFI的基本原理

RT-DETR模型中的AIFI(基于注意力的内部尺度特征交互)模块是一个关键组件,它与CNN基于的跨尺度特征融合模块(CCFM)一起构成了模型的编码器部分。AIFI的主要思想如下->

  1. 基于注意力的特征处理:AIFI模块利用自我注意力机制来处理图像中的高级特征。自我注意力是一种机制,它允许模型在处理特定部分的数据时,同时考虑到数据的其他相关部分。这种方法特别适用于处理具有丰富语义信息的高级图像特征。

  2. 选择性特征交互:AIFI模块专注于在S5级别(即高级特征层)上进行内部尺度交互。这是基于认识到高级特征层包含更丰富的语义概念,能够更有效地捕捉图像中的概念实体间的联系。与此同时,避免在低级特征层进行相同的交互,因为低级特征缺乏必要的语义深度,且可能导致数据处理上的重复和混淆。

总结:AIFI模块的主要思想其实就是通过自我注意力机制专注于处理高级图像特征,从而提高模型在对象检测和识别方面的性能,同时减少不必要的计算消耗。

​​

AIFI模块的主要作用和特点如下: 

1. 减少计算冗余:AIFI模块进一步减少了基于变体D的计算冗余,这个变体仅在S5级别上执行内部尺度交互。

2. 高级特征的自我注意力操作:AIFI模块通过对具有丰富语义概念的高级特征应用自我注意力操作,捕捉图像中概念实体之间的联系。这种处理有助于随后的模块更有效地检测和识别图像中的对象。

3. 避免低级特征的内部尺度交互:由于低级特征缺乏语义概念,以及存在与高级特征交互时的重复和混淆风险,AIFI模块不对低级特征进行内部尺度交互。

4. 专注于S5级别:为了验证上述观点,AIFI模块仅在S5级别上进行内部尺度交互,这表明模块主要关注于处理高级特征。

没啥好讲的这个AIFI具体的内容大家可以看我的另一篇博客->

RT-DETR回顾:RT-DETR论文阅读笔记(包括YOLO版本训练和官方版本训练)


三、AIFI的完整代码

我们将在“ultralytics/nn/modules”目录下面创建一个文件将其复制进去,使用方法在后面第四章会讲。

  1. import torch
  2. import torch.nn as nn
  3. __all__ = ['AIFI']
  4. class TransformerEncoderLayer(nn.Module):
  5. """Defines a single layer of the transformer encoder."""
  6. def __init__(self, c1, cm=2048, num_heads=8, dropout=0.0, act=nn.GELU(), normalize_before=False):
  7. """Initialize the TransformerEncoderLayer with specified parameters."""
  8. super().__init__()
  9. self.ma = nn.MultiheadAttention(c1, num_heads, dropout=dropout, batch_first=True)
  10. # Implementation of Feedforward model
  11. self.fc1 = nn.Linear(c1, cm)
  12. self.fc2 = nn.Linear(cm, c1)
  13. self.norm1 = nn.LayerNorm(c1)
  14. self.norm2 = nn.LayerNorm(c1)
  15. self.dropout = nn.Dropout(dropout)
  16. self.dropout1 = nn.Dropout(dropout)
  17. self.dropout2 = nn.Dropout(dropout)
  18. self.act = act
  19. self.normalize_before = normalize_before
  20. @staticmethod
  21. def with_pos_embed(tensor, pos=None):
  22. """Add position embeddings to the tensor if provided."""
  23. return tensor if pos is None else tensor + pos
  24. def forward_post(self, src, src_mask=None, src_key_padding_mask=None, pos=None):
  25. """Performs forward pass with post-normalization."""
  26. q = k = self.with_pos_embed(src, pos)
  27. src2 = self.ma(q, k, value=src, attn_mask=src_mask, key_padding_mask=src_key_padding_mask)[0]
  28. src = src + self.dropout1(src2)
  29. src = self.norm1(src)
  30. src2 = self.fc2(self.dropout(self.act(self.fc1(src))))
  31. src = src + self.dropout2(src2)
  32. return self.norm2(src)
  33. def forward_pre(self, src, src_mask=None, src_key_padding_mask=None, pos=None):
  34. """Performs forward pass with pre-normalization."""
  35. src2 = self.norm1(src)
  36. q = k = self.with_pos_embed(src2, pos)
  37. src2 = self.ma(q, k, value=src2, attn_mask=src_mask, key_padding_mask=src_key_padding_mask)[0]
  38. src = src + self.dropout1(src2)
  39. src2 = self.norm2(src)
  40. src2 = self.fc2(self.dropout(self.act(self.fc1(src2))))
  41. return src + self.dropout2(src2)
  42. def forward(self, src, src_mask=None, src_key_padding_mask=None, pos=None):
  43. """Forward propagates the input through the encoder module."""
  44. if self.normalize_before:
  45. return self.forward_pre(src, src_mask, src_key_padding_mask, pos)
  46. return self.forward_post(src, src_mask, src_key_padding_mask, pos)
  47. class AIFI(TransformerEncoderLayer):
  48. """Defines the AIFI transformer layer."""
  49. def __init__(self, c1, cm=2048, num_heads=8, dropout=0, act=nn.GELU(), normalize_before=False):
  50. """Initialize the AIFI instance with specified parameters."""
  51. super().__init__(c1, cm, num_heads, dropout, act, normalize_before)
  52. def forward(self, x):
  53. """Forward pass for the AIFI transformer layer."""
  54. c, h, w = x.shape[1:]
  55. pos_embed = self.build_2d_sincos_position_embedding(w, h, c)
  56. # Flatten [B, C, H, W] to [B, HxW, C]
  57. x = super().forward(x.flatten(2).permute(0, 2, 1), pos=pos_embed.to(device=x.device, dtype=x.dtype))
  58. return x.permute(0, 2, 1).view([-1, c, h, w]).contiguous()
  59. @staticmethod
  60. def build_2d_sincos_position_embedding(w, h, embed_dim=256, temperature=10000.0):
  61. """Builds 2D sine-cosine position embedding."""
  62. grid_w = torch.arange(int(w), dtype=torch.float32)
  63. grid_h = torch.arange(int(h), dtype=torch.float32)
  64. grid_w, grid_h = torch.meshgrid(grid_w, grid_h, indexing="ij")
  65. assert embed_dim % 4 == 0, "Embed dimension must be divisible by 4 for 2D sin-cos position embedding"
  66. pos_dim = embed_dim // 4
  67. omega = torch.arange(pos_dim, dtype=torch.float32) / pos_dim
  68. omega = 1.0 / (temperature ** omega)
  69. out_w = grid_w.flatten()[..., None] @ omega[None]
  70. out_h = grid_h.flatten()[..., None] @ omega[None]
  71. return torch.cat([torch.sin(out_w), torch.cos(out_w), torch.sin(out_h), torch.cos(out_h)], 1)[None]


四、手把手教你添加AIFI模块

4.1 细节修改教程

4.1.1 修改一

我们找到如下的目录'yolov9-main/models'在这个目录下创建一整个文件目录(注意是目录,因为我这个专栏会出很多的更新,这里用一种一劳永逸的方法)文件目录起名modules,然后在下面新建一个文件,将我们的代码复制粘贴进去。


​4.1.2 修改二

然后新建一个__init__.py文件,然后我们在里面添加一行代码(均用红框标记出来了)。注意标记一个'.'其作用是标记当前目录。

​​

​​


4.1.3 修改三 

然后我们找到如下文件''models/yolo.py''在开头的地方导入我们的模块按照如下修改->

(如果你看了我多个改进机制此处只需要添加一个即可,无需重复添加。)

​​​​


4.1.4 修改四

然后我们找到parse_model方法,按照如下修改->

  1. elif m in {AIFI}:
  2. c2 = ch[f]
  3. args = [c2, *args]

到此就修改完成了,复制下面的ymal文件即可运行。


4.2 AIFI的yaml文件

  1. # YOLOv9
  2. # parameters
  3. nc: 80 # number of classes
  4. depth_multiple: 1 # model depth multiple
  5. width_multiple: 1 # layer channel multiple
  6. #activation: nn.LeakyReLU(0.1)
  7. #activation: nn.ReLU()
  8. # anchors
  9. anchors: 3
  10. # YOLOv9 backbone
  11. backbone:
  12. [
  13. [-1, 1, Silence, []],
  14. # conv down
  15. [-1, 1, Conv, [64, 3, 2]], # 1-P1/2
  16. # conv down
  17. [-1, 1, Conv, [128, 3, 2]], # 2-P2/4
  18. # elan-1 block
  19. [-1, 1, RepNCSPELAN4, [256, 128, 64, 1]], # 3
  20. # conv down
  21. [-1, 1, Conv, [256, 3, 2]], # 4-P3/8
  22. # elan-2 block
  23. [-1, 1, RepNCSPELAN4, [512, 256, 128, 1]], # 5
  24. # conv down
  25. [-1, 1, Conv, [512, 3, 2]], # 6-P4/16
  26. # elan-2 block
  27. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 7
  28. # conv down
  29. [-1, 1, Conv, [512, 3, 2]], # 8-P5/32
  30. # elan-2 block
  31. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 9
  32. ]
  33. # YOLOv9 head
  34. head:
  35. [
  36. # elan-spp block
  37. [-1, 1, AIFI, []], # 10
  38. # up-concat merge
  39. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  40. [[-1, 7], 1, Concat, [1]], # cat backbone P4
  41. # elan-2 block
  42. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 13
  43. # up-concat merge
  44. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  45. [[-1, 5], 1, Concat, [1]], # cat backbone P3
  46. # elan-2 block
  47. [-1, 1, RepNCSPELAN4, [256, 256, 128, 1]], # 16 (P3/8-small)
  48. # conv-down merge
  49. [-1, 1, Conv, [256, 3, 2]],
  50. [[-1, 13], 1, Concat, [1]], # cat head P4
  51. # elan-2 block
  52. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 19 (P4/16-medium)
  53. # conv-down merge
  54. [-1, 1, Conv, [512, 3, 2]],
  55. [[-1, 10], 1, Concat, [1]], # cat head P5
  56. # elan-2 block
  57. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 22 (P5/32-large)
  58. # routing
  59. [5, 1, CBLinear, [[256]]], # 23
  60. [7, 1, CBLinear, [[256, 512]]], # 24
  61. [9, 1, CBLinear, [[256, 512, 512]]], # 25
  62. # conv down
  63. [0, 1, Conv, [64, 3, 2]], # 26-P1/2
  64. # conv down
  65. [-1, 1, Conv, [128, 3, 2]], # 27-P2/4
  66. # elan-1 block
  67. [-1, 1, RepNCSPELAN4, [256, 128, 64, 1]], # 28
  68. # conv down fuse
  69. [-1, 1, Conv, [256, 3, 2]], # 29-P3/8
  70. [[23, 24, 25, -1], 1, CBFuse, [[0, 0, 0]]], # 30
  71. # elan-2 block
  72. [-1, 1, RepNCSPELAN4, [512, 256, 128, 1]], # 31
  73. # conv down fuse
  74. [-1, 1, Conv, [512, 3, 2]], # 32-P4/16
  75. [[24, 25, -1], 1, CBFuse, [[1, 1]]], # 33
  76. # elan-2 block
  77. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 34
  78. # conv down fuse
  79. [-1, 1, Conv, [512, 3, 2]], # 35-P5/32
  80. [[25, -1], 1, CBFuse, [[2]]], # 36
  81. # elan-2 block
  82. [-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 37
  83. # detect
  84. [[31, 34, 37, 16, 19, 22], 1, DualDDetect, [nc]], # DualDDetect(A3, A4, A5, P3, P4, P5)
  85. ]

4.3 AIFI运行成功截图

附上我的运行记录确保我的教程是可用的。 


五、本文总结 

到此本文的正式分享内容就结束了,在这里给大家推荐我的YOLOv9改进有效涨点专栏,本专栏目前为新开的平均质量分98分,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的改进机制进行补充,目前本专栏免费阅读(暂时,大家尽早关注不迷路~),如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~

专栏地址:YOLOv9有效涨点专栏-持续复现各种顶会内容-有效涨点-全网改进最全的专栏 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/500015
推荐阅读
相关标签
  

闽ICP备14008679号