赞
踩
前 言:作为当前先进的深度学习目标检测算法YOLOv7,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv7的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。由于出到YOLOv7,YOLOv5算法2020年至今已经涌现出大量改进论文,这个不论对于搞科研的同学或者已经工作的朋友来说,研究的价值和新颖度都不太够了,为与时俱进,以后改进算法以YOLOv7为基础,此前YOLOv5改进方法在YOLOv7同样适用,所以继续YOLOv5系列改进的序号。另外改进方法在YOLOv5等其他算法同样可以适用进行改进。希望能够对大家有帮助。
解决问题:
CVPR 2022中被收录的工作:An Image Patch is a Wave: Quantum Inspired Vision MLP
原理:
论文地址:https://arxiv.org/abs/2111.12294
视觉 MLP 具有极其简单的架构,它仅由多层感知器(MLP)堆叠而成。与 CNN 和 Transformer 相比,这些简洁的 MLP 架构引入了更少的归纳偏置,具有更强的泛化性能。他们受到量子力学中波粒二象性的启发,将 MLP 中每个图像块 (Token) 表示成波函数的形式,从而提出了一个新型的视觉 MLP 架构——Wave-MLP,在性能上大幅超越了现有 MLP以及 Transformer架构。
项目部分代码如下:
- def _cfg(url='', **kwargs):
- return {
- 'url': url,
- 'num_classes': 1000, 'input_size': (3, 224, 224), 'pool_size': None,
- 'crop_pct': .96, 'interpolation': 'bicubic',
- 'mean': IMAGENET_DEFAULT_MEAN, 'std': IMAGENET_DEFAULT_STD, 'classifier': 'head',
- **kwargs
- }
-
- default_cfgs = {
- 'wave_T': _cfg(crop_pct=0.9),
- 'wave_S': _cfg(crop_pct=0.9),
- 'wave_M': _cfg(crop_pct=0.9),
- 'wave_B': _cfg(crop_pct=0.875),
- }
-
- class Mlp(nn.Module):
- def __init__(self, in_features, hidden_features=None, out_features=None, act_layer=nn.GELU, drop=0.):
- super().__init__()
-
- out_features = out_features or in_features
- hidden_features = hidden_features or in_features
- self.act = act_layer()
- self.drop = nn.Dropout(drop)
- self.fc1 = nn.Conv2d(in_features, hidden_features, 1, 1)
- self.fc2 = nn.Conv2d(hidden_features, out_features, 1, 1)
-
- def forward(self, x):
- x = self.fc1(x)
- x = self.act(x)
- x = self.drop(x)
- x = self.fc2(x)
- x = self.drop(x)
- return x
-
-
- class PATM(nn.Module):
- def __init__(self, dim, qkv_bias=False, qk_scale=None, attn_drop=0., proj_drop=0.,mode='fc'):
- super().__init__()
-
-
- self.fc_h = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
- self.fc_w = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
- self.fc_c = nn.Conv2d(dim, dim, 1, 1,bias=qkv_bias)
-
- self.tfc_h = nn.Conv2d(2*dim, dim, (1,7), stride=1, padding=(0,7//2), groups=dim, bias=False)
- self.tfc_w = nn.Conv2d(2*dim, dim, (7,1), stride=1, padding=(7//2,0), groups=dim, bias=False)
- self.reweight = Mlp(dim, dim // 4, dim * 3)
- self.proj = nn.Conv2d(dim, dim, 1, 1,bias=True)
- self.proj_drop = nn.Dropout(proj_drop)
- self.mode=mode
-
- if mode=='fc':
- self.theta_h_conv=nn.Sequential(nn.Conv2d(dim, dim, 1, 1,bias=True),nn.BatchNorm2d(dim),nn.ReLU())
- self.theta_w_conv=nn.Sequential(nn.Conv2d(dim, dim, 1, 1,bias=True),nn.BatchNorm2d(dim),nn.ReLU())
- else:
- self.theta_h_conv=nn.Sequential(nn.Conv2d(dim, dim, 3, stride=1, padding=1, groups=dim, bias=False),nn.BatchNorm2d(dim),nn.ReLU())
- self.theta_w_conv=nn.Sequential(nn.Conv2d(dim, dim, 3, stride=1, padding=1, groups=dim, bias=False),nn.BatchNorm2d(dim),nn.ReLU())
结 果:本人暂时由于比较忙,暂时还未做实验,该改进确实可行的话,可以尝试投稿sci期刊。需要请关注留言。
预告一下:下一篇内容将继续分享深度学习算法相关改进方法。有兴趣的朋友可以关注一下我,有问题可以留言或者私聊我哦
PS:该方法不仅仅是适用改进YOLOv5,也可以改进其他的YOLO网络以及目标检测网络,比如YOLOv7、v6、v4、v3,Faster rcnn ,ssd等。
最后,希望能互粉一下,做个朋友,一起学习交流。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。