当前位置:   article > 正文

YOLOv7改进之二十四:引入量子启发的新型视觉主干模型WaveMLP(可尝试发SCI)_yolosci

yolosci

 ​前 言:作为当前先进的深度学习目标检测算法YOLOv7,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv7的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。由于出到YOLOv7,YOLOv5算法2020年至今已经涌现出大量改进论文,这个不论对于搞科研的同学或者已经工作的朋友来说,研究的价值和新颖度都不太够了,为与时俱进,以后改进算法以YOLOv7为基础,此前YOLOv5改进方法在YOLOv7同样适用,所以继续YOLOv5系列改进的序号。另外改进方法在YOLOv5等其他算法同样可以适用进行改进。希望能够对大家有帮助。

解决问题:

CVPR 2022中被收录的工作:An Image Patch is a Wave: Quantum Inspired Vision MLP

原理:

      论文地址:https://arxiv.org/abs/2111.12294

       视觉 MLP 具有极其简单的架构,它仅由多层感知器(MLP)堆叠而成。与 CNN 和 Transformer 相比,这些简洁的 MLP 架构引入了更少的归纳偏置,具有更强的泛化性能。他们受到量子力学中波粒二象性的启发,将 MLP 中每个图像块 (Token) 表示成波函数的形式,从而提出了一个新型的视觉 MLP 架构——Wave-MLP,在性能上大幅超越了现有 MLP以及 Transformer架构。

 项目部分代码如下:

  1. def _cfg(url='', **kwargs):
  2. return {
  3. 'url': url,
  4. 'num_classes': 1000, 'input_size': (3, 224, 224), 'pool_size': None,
  5. 'crop_pct': .96, 'interpolation': 'bicubic',
  6. 'mean': IMAGENET_DEFAULT_MEAN, 'std': IMAGENET_DEFAULT_STD, 'classifier': 'head',
  7. **kwargs
  8. }
  9. default_cfgs = {
  10. 'wave_T': _cfg(crop_pct=0.9),
  11. 'wave_S': _cfg(crop_pct=0.9),
  12. 'wave_M': _cfg(crop_pct=0.9),
  13. 'wave_B': _cfg(crop_pct=0.875),
  14. }
  15. class Mlp(nn.Module):
  16. def __init__(self, in_features, hidden_features=None, out_features=None, act_layer=nn.GELU, drop=0.):
  17. super().__init__()
  18. out_features = out_features or in_features
  19. hidden_features = hidden_features or in_features
  20. self.act = act_layer()
  21. self.drop = nn.Dropout(drop)
  22. self.fc1 = nn.Conv2d(in_features, hidden_features, 1, 1)
  23. self.fc2 = nn.Conv2d(hidden_features, out_features, 1, 1)
  24. def forward(self, x):
  25. x = self.fc1(x)
  26. x = self.act(x)
  27. x = self.drop(x)
  28. x = self.fc2(x)
  29. x = self.drop(x)
  30. return x
  31. class PATM(nn.Module):
  32. def __init__(self, dim, qkv_bias=False, qk_scale=None, attn_drop=0., proj_drop=0.,mode='fc'):
  33. super().__init__()
  34. self.fc_h = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
  35. self.fc_w = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
  36. self.fc_c = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
  37. self.tfc_h = nn.Conv2d(2*dim, dim, (1,7), stride=1, padding=(0,7//2), groups=dim, bias=False)
  38. self.tfc_w = nn.Conv2d(2*dim, dim, (7,1), stride=1, padding=(7//2,0), groups=dim, bias=False)
  39. self.reweight = Mlp(dim, dim // 4, dim * 3)
  40. self.proj = nn.Conv2d(dim, dim, 1, 1,bias=True)
  41. self.proj_drop = nn.Dropout(proj_drop)
  42. self.mode=mode
  43. if mode=='fc':
  44. self.theta_h_conv=nn.Sequential(nn.Conv2d(dim, dim, 1, 1,bias=True),nn.BatchNorm2d(dim),nn.ReLU())
  45. self.theta_w_conv=nn.Sequential(nn.Conv2d(dim, dim, 1, 1,bias=True),nn.BatchNorm2d(dim),nn.ReLU())
  46. else:
  47. self.theta_h_conv=nn.Sequential(nn.Conv2d(dim, dim, 3, stride=1, padding=1, groups=dim, bias=False),nn.BatchNorm2d(dim),nn.ReLU())
  48. self.theta_w_conv=nn.Sequential(nn.Conv2d(dim, dim, 3, stride=1, padding=1, groups=dim, bias=False),nn.BatchNorm2d(dim),nn.ReLU())

结 果:本人暂时由于比较忙,暂时还未做实验,该改进确实可行的话,可以尝试投稿sci期刊。需要请关注留言。

预告一下:下一篇内容将继续分享深度学习算法相关改进方法。有兴趣的朋友可以关注一下我,有问题可以留言或者私聊我哦

PS:该方法不仅仅是适用改进YOLOv5,也可以改进其他的YOLO网络以及目标检测网络,比如YOLOv7、v6、v4、v3,Faster rcnn ,ssd等。

最后,希望能互粉一下,做个朋友,一起学习交流。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/524144
推荐阅读
相关标签
  

闽ICP备14008679号