赞
踩
前 言:作为当前先进的深度学习目标检测算法YOLOv5,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv5的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。
需要更多程序资料以及答疑欢迎大家关注——微信公众号:人工智能AI算法工程师
解决问题:YOLOv5主干特征提取网络采用C3结构,带来较大的参数量,检测速度较慢,应用受限,在某些真实的应用场景如移动或者嵌入式设备,如此大而复杂的模型时难以被应用的。首先是模型过于庞大,面临着内存不足的问题,其次这些场景要求低延迟,或者说响应速度要快,想象一下自动驾驶汽车的行人检测系统如果速度很慢会发生什么可怕的事情。所以,研究小而高效的CNN模型在这些场景至关重要,至少目前是这样,尽管未来硬件也会越来越快。本文尝试将主干特征提取网络替换为更轻量的ShuffleNetV2网络,以实现网络模型的轻量化,平衡速度和精度。
原理:
文章链接 https://arxiv.org/abs/1807.11164
近来,深度CNN网络如ResNet和DenseNet,已经极大地提高了图像分类的准确度。但是除了准确度外,计算复杂度也是CNN网络要考虑的重要指标,过复杂的网络可能速度很慢,一些特定场景如无人车领域需要低延迟。另外移动端设备也需要既准确又快的小模型。为了满足这些需求,一些轻量级的CNN网络如MobileNet和ShuffleNet被提出,它们在速度和准确度之间做了很好地平衡。今天我们要讲的是ShuffleNetv2,它是旷视最近提出的ShuffleNet升级版本,并被ECCV2018收录。在同等复杂度下,ShuffleNetv2比ShuffleNet和MobileNetv2更准确。下图为整体结构图。
方 法:
第一步修改common.py,增加ShuffleNetV2模块。
- def channel_shuffle(x: Tensor, groups: int) -> Tensor:
- batchsize, num_channels, height, width = x.size()
- channels_per_group = num_channels // groups
-
- # reshape
- x = x.view(batchsize, groups,
- channels_per_group, height, width)
-
- x = torch.transpose(x, 1, 2).contiguous()
-
-
-
- return x
-
-
- class conv_bn_relu_maxpool(nn.Module):
- def __init__(self, c1, c2): # ch_in, ch_out
- super(conv_bn_relu_maxpool, self).__init__()
- self.conv = nn.Sequential(
- nn.Conv2d(c1, c2, kernel_size=3, stride=2, padding=1, bias=False),
- nn.BatchNorm2d(c2),
- nn.ReLU(inplace=True),
- )
- self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1, dilation=1, ceil_mode=False)
-
- def forward(self, x):
- return self.maxpool(self.conv(x))
-
-
- class ShuffleNetV2_InvertedResidual(nn.Module):
- def __init__(
- self,
- inp: int,
- oup: int,
- stride: int
- ) -> None:
- super(ShuffleNetV2_InvertedResidual, self).__init__()
-
- if not (1 <= stride <= 3):
- raise ValueError('illegal stride value')
- self.stride = stride
-
- branch_features = oup // 2
-
- if self.stride > 1:
- self.branch1 = nn.Sequential(
- self.depthwise_conv(inp, inp, kernel_size=3, stride=self.stride, padding=1),
- nn.BatchNorm2d(inp),
- nn.Conv2d(inp, branch_features, kernel_size=1, stride=1, padding=0, bias=False),
- nn.BatchNorm2d(branch_features),
- nn.ReLU(inplace=True),
- )
- else:
- self.branch1 = nn.Sequential()
-
- self.branch2 = nn.Sequential(
- nn.Conv2d(inp if (self.stride > 1) else branch_features,
- branch_features, kernel_size=1, stride=1, padding=0, bias=False),
- nn.BatchNorm2d(branch_features),
- nn.ReLU(inplace=True),
- self.depthwise_conv(branch_features, branch_features, kernel_size=3, stride=self.stride, padding=1),
- nn.BatchNorm2d(branch_features),
- nn.Conv2d(branch_features, branch_features, kernel_size=1, stride=1, padding=0, bias=False),
- nn.BatchNorm2d(branch_features),
- nn.ReLU(inplace=True),
- )
-
- @staticmethod
- def depthwise_conv(
- i: int,
- o: int,
- stride: int = 1,
- padding: int = 0,
- bias: bool = False
- ) -> nn.Conv2d:
- return nn.Conv2d(i, o, kernel_size, stride, padding, bias=bias, groups=i)
-
- def forward(self, x: Tensor) -> Tensor:
- if self.stride == 1:
- x1, x2 = x.chunk(2, dim=1)
- out = torch.cat((x1, self.branch2(x2)), dim=1)
- else:
- out = torch.cat((self.branch1(x), self.branch2(x)), dim=1)
-
- out = channel_shuffle(out, 2)
-
- return out
第二步:将yolo.py中注册模块ShuffleNetV2。
if m in [Conv,MobileNetV3_InvertedResidual,ShuffleNetV2_InvertedResidual ]:
第三步:修改yaml文件
- backbone:
- # [from, number, module, args]
- [[-1, 1, Focus, [64, 3]], # 0-P2/4
- [-1, 1, ShuffleNetV2_InvertedResidual, [128, 2]], # 1-P3/8
- [-1, 3, ShuffleNetV2_InvertedResidual, [128, 1]], # 2
- [-1, 1, ShuffleNetV2_InvertedResidual, [256, 2]], # 3-P4/16
- [-1, 7, ShuffleNetV2_InvertedResidual, [256, 1]], # 4
- [-1, 1, ShuffleNetV2_InvertedResidual, [512, 2]], # 5-P5/32
- [-1, 3, ShuffleNetV2_InvertedResidual, [512, 1]], # 6
- ]
结 果:本人在多个数据集上做了大量实验,针对不同的数据集效果不同,map值有所下降,但是权值模型大小降低,参数量下降。
预告一下:下一篇内容将继续分享网络轻量化方法EfficientNetv2的分享。有兴趣的朋友可以关注一下我,有问题可以留言或者私聊我哦
PS:主干网络的替换不仅仅是适用改进YOLOv5,也可以改进其他的YOLO网络以及目标检测网络,比如YOLOv4、v3等。
需要更多程序资料以及答疑欢迎大家关注——微信公众号:人工智能AI算法工程师
最后,希望能互粉一下,做个朋友,一起学习交流。
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。