当前位置:   article > 正文

理解ConvNeXt网络(结合代码)

convnext

目录

 1.简介

 2.ConvNeXt的设计与实验

2.1 macro design(大的结构上的设计)

2.1.1 Changing stage compute ratio(改变每个stage的堆叠次数)

2.1.2 Changing stem to “Patchify”(stem为最初的下采样模块,改为与swin相似的patch卷积进行下采样)

2.2 ResNeXt(参考ResNeXt)

2.2.1 depth conv(普通卷积改为DW 卷积)

2.2.2 width(增加每个stage网络的深度)

2.3 inverted bottleneck

2.3.1 inverting dims(bottleneck由Resnet中两头粗中间细改为了类似Mobilenetv2中两头细中间粗的结构)

2.4 large kerner size(增加卷积核大小)

2.4.1 Moving up depthwise conv layer(将bottleneck中DW卷积模块上移)

2.4.2 Increasing the kernel size(增大DW卷积的卷积核大小)

2.5 various layer-wise micro designs(微小结构的设计)

2.5.1 Replacing ReLU with GELU(激活函数的改变)

2.5.2 Fewer activation functions(使用更少的激活函数,仅在DW卷积后的全连接层使用激活函数)

​编辑

2.5.3 Fewer normalization layers(将BN替换为LN,并且只在DW卷积后使用LN)

2.5.4 Substituting BN with LN(将BN替换为LN)

2.5.5 Separate downsampling layers(将Resnet中在bottleneck中进行下采样改为使用单独的下采样层)

 3. ConvNeXt 的版本

4.ConvNeXt的整体结构

 5. ConvNeXt网络模型代码


1.简介

摘要:视觉识别的“咆哮的二十世纪”开始于ViT的引入,ViT迅速的取代卷积网络成为图像分类模型的SOTA。当普通的ViT在通用计算机视觉任务中比如目标检测和语义分割当中遇到困难时,hierarchical Transformers,比如swin transformer重新引入了几个卷积中的先验知识,使得transformer作为通用的计算机视觉的backbone实际上是可行的,并且展示了在各种视觉任务中的卓越的性能。然而,许多混合方法的效率任然大量的依靠Transformer自身固有的优势,而不是卷积自身的归纳偏置。在这篇工作中,复查了设计空间并且验证了限制纯卷积网络的实现的是什么原因。逐渐“现代化”一个标准的ResNet向着ViT的方向设计,并且发现了几个关键的参数,随着方法的不同而贡献了不同的性能提升。这个探索的结果是一个称为ConvNeXt的纯卷积网络。完全从标准的卷积网络构建的ConvNeXt,从精度和泛化性角度来说,完全不逊色于Transformer,在imagenet上以top-1中87.8%的精度,并且在COCO检测和ADE20K上的性能都优于swin Transformer,并且还维持了标准卷积网络的简单和有效性。

卷积在计算视觉领域的统治力不是一个巧合,滑动窗口策略是固有的对于视觉处理来说,归纳偏置和平移不变性能使Convnet非常适用在计算机视觉的应用上。

ViT遇到的困难是通过swin transformer来解决的,而swin Transformer恰恰是引入了卷积中的滑动窗口的,所以说明卷积是非常重要的,而我们可以将Transformer的优势来引入到卷积网络当中。然而,以前的尝试是有代价的,要么就是非常贵,要么就是将系统设计的非常复杂。讽刺的是,卷积网络已经满足了这些所需的属性,尽管是直接简单的、不加修饰的方法。似乎ConvNets失去动力的唯一原因是(分级)Transformer在许多视觉任务中超过了它们,而性能差异通常归因于Transformer的优越尺度行为,其中多头自注意是关键组件。

文章的中心就是探讨一个问题:How do design decisions in Transformers impact ConvNets’ performance?

ConvNeXt网络本身没有什么亮点,全是应用的现有的方法来进行网络的调整,特别是大量细节的设计都是参考了swin transformer的网络结构的。并且ConvNeXt是以ResNet50网络为backbone来进行调整的,所以ConvNeXt的网络结构非常简单,一目了然,理解起来也是非常容易的。并且不仅精度比swin Transformer高,推理速度还快。

综合来说,ConvNeXt是一个非常好的文章。这里放上我看到的一个网友对ConvNeXt网络的评价。

“感觉这篇论文的思路是照着swin-transformer的结构靠拢的,可以明显的看出来很多设计都是损于推理速度的,比如激活函数的选择,组卷积的使用,分支数量的增加,这是一篇很不错的论文,其给出了详细的设计思路同时又留下了很多针对于推理速度的改进空间,我觉得现在卷积神经网络的另一个方向可以研究等效,即repvgg论文中使用的,训练时采用残差结构提高精度,而推理时转化为单分支结构极大的提高推理速度,因为各大ai芯片以及nvidia对3*3卷积的优化的非常的好,以我个人浅薄的认知而言,卷积神经网络的瓶颈还远远没有达到,未来在推理速度的研究方面,卷积神经网络因为其简单的结构很有可能会再次走在transformer的前面。”

 2.ConvNeXt的设计与实验

作者以通过ViT的训练策略训练的Resnet50网络(精度78.8)作为基准网络进行调整,最后能达到82.0的准确率(高于swin-T的81.3),说明将swin Transformer的结构和训练策略应用到Resnet上是很有效果的。

我们知道,训练策略也会影响到最终的模型性能,ViT不仅带来了新的模块和结构的设计,还带来了不同的训练技巧。因此,第一步就是用ViT的训练策略来训练ResNet50/200。在这篇文章中,用的训练策略更接近于DeiT和Swin Transformer的训练策略。

1)训练次数由之前的90个epoch扩大到150个epoch。

2)用了AdamW优化器

3)用了许多数据增强的技术,比如:Mixup、Cutmix、RandAugment、Random Erasing

4)用了正则化策略,有Stochastic Depth和Label Smoothing

通过使用以上这些训练策略,ResNet的准确率由76.1%提升到了78.8%(+2.7%)。

ConvNeX网络的改进主要有以下五个方面:

在这里插入图片描述

  • 2.1 macro design(大的结构上的设计)

    • 2.1.1 Changing stage compute ratio(改变每个stage的堆叠次数)

      在原ResNet网络中,一般conv4_x(即stage3)堆叠的block的次数是最多的。ResNet50中stage1到stage4堆叠block的次数是(3, 4, 6, 3)比例大概是1:1:2:1,但在Swin Transformer中,比如Swin-T的比例是1:1:3:1,Swin-L的比例是1:1:9:1。很明显,在Swin Transformer中,stage3堆叠block的占比更高。所以作者就将ResNet50中的stage中的堆叠次数由(3, 4, 6, 3)调整成(3, 3, 9, 3),和Swin-T拥有相似的FLOPs。进行调整后,准确率由78.8%提升到了79.4%。

      在这里插入图片描述

    • 2.1.2 Changing stem to “Patchify”(stem为最初的下采样模块,改为与swin相似的patch卷积进行下采样)

      在之前的卷积神经网络中,一般最初的下采样模块stem一般都是通过一个卷积核大小为7x7步距为2的卷积层以及一个步距为2的最大池化下采样共同组成,高和宽都下采样4倍。但在Transformer模型中一般都是通过一个卷积核非常大且相邻窗口之间没有重叠的(即stride等于kernel_size)卷积层进行下采样。比如在Swin Transformer中采用的是一个卷积核大小为4x4步距为4的卷积层构成patchify,同样是下采样4倍。所以作者将ResNet中的stem也换成了和Swin Transformer一样的patchify。替换后准确率从79.4% 提升到79.5%,并且FLOPs也降低了一点。

  • 2.2 ResNeXt(参考ResNeXt)

    • 2.2.1 depth conv(普通卷积改为DW 卷积)

      借鉴了ResNeXt中的组卷积grouped convolution,因为ResNeXt相比普通的ResNet而言在FLOPs以及accuracy之间做到了更好的平衡。而作者采用的是更激进的depthwise convolution,即group数和通道数channel相同。这样做的另一个原因是作者认为depthwise convolutionself-attention中的加权求和操作很相似。

      DW卷积能对空间上的信息进行提取,1x1卷积能对通道上的信息进行提取。

    • 2.2.2 width(增加每个stage网络的深度)

      将最初的通道数由64调整成96和Swin Transformer保持一致,增加了FLOPs(5.3G),最终准确率达到了80.5%

  • 2.3 inverted bottleneck

    • 2.3.1 inverting dims(bottleneck由Resnet中两头粗中间细改为了类似Mobilenetv2中两头细中间粗的结构)

      作者认为Transformer block中的MLP模块非常像MobileNetV2中的Inverted Bottleneck模块,即两头细中间粗。作者采用Inverted Bottleneck模块后,在较小的模型上准确率由80.5%提升到了80.6%,在较大的模型上准确率由81.9%提升到82.6%

  • 2.4 large kerner size(增加卷积核大小)

    • 2.4.1 Moving up depthwise conv layer(将bottleneck中DW卷积模块上移)

      将depthwise conv模块上移,原来是1x1 conv -> depthwise conv -> 1x1 conv,现在变成了depthwise conv -> 1x1 conv -> 1x1 conv。这么做是因为在Transformer中,MSA模块是放在MLP模块之前的,所以这里进行效仿,将depthwise conv上移。这样改动后,准确率虽然下降到了79.9%,但同时FLOPs也减小了。

    • 2.4.2 Increasing the kernel size(增大DW卷积的卷积核大小)

      作者将depthwise conv的卷积核大小由3x3改成了7x7(和Swin Transformer一样),当然作者也尝试了其他尺寸,包括3, 5, 7, 9, 11发现取到7时准确率就达到了饱和。并且准确率从79.9% (3×3) 增长到 80.6% (7×7)

  • 2.5 various layer-wise micro designs(微小结构的设计)

    • 2.5.1 Replacing ReLU with GELU(激活函数的改变)

      Transformer中激活函数基本用的都是GELU,而在卷积神经网络中最常用的是ReLU,于是作者又将激活函数替换成了GELU,替换后发现准确率没变化。

    • 2.5.2 Fewer activation functions(使用更少的激活函数,仅在DW卷积后的全连接层使用激活函数)

      使用更少的激活函数。在卷积神经网络中,一般会在每个卷积层或全连接后都接上一个激活函数。但在Transformer中并不是每个模块后都跟有激活函数,比如MLP中只有第一个全连接层后跟了GELU激活函数。接着作者在ConvNeXt Block中也减少激活函数的使用,如下图所示,减少后发现准确率从80.6%增长到81.3%。 

    • 在这里插入图片描述

    • 2.5.3 Fewer normalization layers(将BN替换为LN,并且只在DW卷积后使用LN)

      Transformer中,Normalization使用的也比较少,接着作者也减少了ConvNeXt Block中的Normalization层,只保留了depthwise conv后的Normalization层。此时准确率已经达到了81.4%,已经超过了Swin-T

    • 2.5.4 Substituting BN with LN(将BN替换为LN)

      Transformer中基本都用的Layer Normalization(LN),因为最开始Transformer是应用在NLP领域的,BN又不适用于NLP相关任务。接着作者将BN全部替换成了LN,发现准确率还有小幅提升达到了81.5%

    • 2.5.5 Separate downsampling layers(将Resnet中在bottleneck中进行下采样改为使用单独的下采样层)

      在ResNet网络中stage2-stage4的下采样都是通过将主分支上3x3的卷积层步距设置成2,捷径分支上1x1的卷积层步距设置成2进行下采样的。但在Swin Transformer中是通过一个单独的Patch Merging实现的。接着作者就为ConvNext网络单独使用了一个下采样层,就是通过一个Laryer Normalization加上一个卷积核大小为2步距为2的卷积层构成。更改后准确率就提升到了82.0%,超过了Swin-T的81.3%。

 3. ConvNeXt 的版本

对于ConvNeXt网络,作者提出了T/S/B/L四个版本,计算复杂度刚好和Swin Transformer中的T/S/B/L相似。

这四个版本的配置如下:

ConvNeXt-T: C = (96, 192, 384, 768), B = (3, 3, 9, 3)
ConvNeXt-S: C = (96, 192, 384, 768), B = (3, 3, 27, 3)
ConvNeXt-B: C = (128, 256, 512, 1024), B = (3, 3, 27, 3)
ConvNeXt-L: C = (192, 384, 768, 1536), B = (3, 3, 27, 3)
ConvNeXt-XL: C = (256, 512, 1024, 2048), B = (3, 3, 27, 3)
其中C代表4个stage中输入的通道数,B代表每个stage重复堆叠block的次数。

4.ConvNeXt的整体结构

下图是另一个博主画的网络结构图,博文链接(6条消息) ConvNeXt网络详解_太阳花的小绿豆的博客-CSDN博客

ConvNeXt Block会发现其中还有一个Layer Scale操作(论文中并没有提到),其实它就是将输入的特征层乘上一个可训练的参数,该参数就是一个向量,元素个数与特征层channel相同,即对每个channel的数据进行缩放。

在这里插入图片描述

 5. ConvNeXt网络模型代码

代码只能说太简单了,是个人都能看懂,就直接放代码了。

  1. """
  2. original code from facebook research:
  3. https://github.com/facebookresearch/ConvNeXt
  4. """
  5. import torch
  6. import torch.nn as nn
  7. import torch.nn.functional as F
  8. def drop_path(x, drop_prob: float = 0., training: bool = False):
  9. """Drop paths (Stochastic Depth) per sample (when applied in main path of residual blocks).
  10. This is the same as the DropConnect impl I created for EfficientNet, etc networks, however,
  11. the original name is misleading as 'Drop Connect' is a different form of dropout in a separate paper...
  12. See discussion: https://github.com/tensorflow/tpu/issues/494#issuecomment-532968956 ... I've opted for
  13. changing the layer and argument names to 'drop path' rather than mix DropConnect as a layer name and use
  14. 'survival rate' as the argument.
  15. """
  16. if drop_prob == 0. or not training:
  17. return x
  18. keep_prob = 1 - drop_prob
  19. shape = (x.shape[0],) + (1,) * (x.ndim - 1) # work with diff dim tensors, not just 2D ConvNets
  20. random_tensor = keep_prob + torch.rand(shape, dtype=x.dtype, device=x.device)
  21. random_tensor.floor_() # binarize
  22. output = x.div(keep_prob) * random_tensor
  23. return output
  24. class DropPath(nn.Module):
  25. """Drop paths (Stochastic Depth) per sample (when applied in main path of residual blocks).
  26. """
  27. def __init__(self, drop_prob=None):
  28. super(DropPath, self).__init__()
  29. self.drop_prob = drop_prob
  30. def forward(self, x):
  31. return drop_path(x, self.drop_prob, self.training)
  32. class LayerNorm(nn.Module):
  33. r""" LayerNorm that supports two data formats: channels_last (default) or channels_first.
  34. The ordering of the dimensions in the inputs. channels_last corresponds to inputs with
  35. shape (batch_size, height, width, channels) while channels_first corresponds to inputs
  36. with shape (batch_size, channels, height, width).
  37. 官方实现的LN是默认对最后一个维度进行的,这里是对channel维度进行的,所以单另设一个类。
  38. """
  39. def __init__(self, normalized_shape, eps=1e-6, data_format="channels_last"):
  40. super().__init__()
  41. self.weight = nn.Parameter(torch.ones(normalized_shape), requires_grad=True)
  42. self.bias = nn.Parameter(torch.zeros(normalized_shape), requires_grad=True)
  43. self.eps = eps
  44. self.data_format = data_format
  45. if self.data_format not in ["channels_last", "channels_first"]:
  46. raise ValueError(f"not support data format '{self.data_format}'")
  47. self.normalized_shape = (normalized_shape,)
  48. def forward(self, x: torch.Tensor) -> torch.Tensor:
  49. if self.data_format == "channels_last":
  50. return F.layer_norm(x, self.normalized_shape, self.weight, self.bias, self.eps)
  51. elif self.data_format == "channels_first":
  52. # [batch_size, channels, height, width]
  53. mean = x.mean(1, keepdim=True)
  54. var = (x - mean).pow(2).mean(1, keepdim=True)
  55. x = (x - mean) / torch.sqrt(var + self.eps)
  56. x = self.weight[:, None, None] * x + self.bias[:, None, None]
  57. return x
  58. class Block(nn.Module):
  59. r""" ConvNeXt Block. There are two equivalent implementations:
  60. (1) DwConv -> LayerNorm (channels_first) -> 1x1 Conv -> GELU -> 1x1 Conv; all in (N, C, H, W)
  61. (2) DwConv -> Permute to (N, H, W, C); LayerNorm (channels_last) -> Linear -> GELU -> Linear; Permute back
  62. We use (2) as we find it slightly faster in PyTorch
  63. Args:
  64. dim (int): Number of input channels.
  65. drop_rate (float): Stochastic depth rate. Default: 0.0
  66. layer_scale_init_value (float): Init value for Layer Scale. Default: 1e-6.
  67. """
  68. def __init__(self, dim, drop_rate=0., layer_scale_init_value=1e-6):
  69. super().__init__()
  70. self.dwconv = nn.Conv2d(dim, dim, kernel_size=7, padding=3, groups=dim) # depthwise conv
  71. self.norm = LayerNorm(dim, eps=1e-6, data_format="channels_last")
  72. self.pwconv1 = nn.Linear(dim, 4 * dim) # pointwise/1x1 convs, implemented with linear layers
  73. self.act = nn.GELU()
  74. self.pwconv2 = nn.Linear(4 * dim, dim)
  75. # layer scale
  76. self.gamma = nn.Parameter(layer_scale_init_value * torch.ones((dim,)),
  77. requires_grad=True) if layer_scale_init_value > 0 else None
  78. self.drop_path = DropPath(drop_rate) if drop_rate > 0. else nn.Identity()
  79. def forward(self, x: torch.Tensor) -> torch.Tensor:
  80. shortcut = x
  81. x = self.dwconv(x)
  82. x = x.permute(0, 2, 3, 1) # [N, C, H, W] -> [N, H, W, C]
  83. x = self.norm(x)
  84. x = self.pwconv1(x)
  85. x = self.act(x)
  86. x = self.pwconv2(x)
  87. if self.gamma is not None:
  88. x = self.gamma * x
  89. x = x.permute(0, 3, 1, 2) # [N, H, W, C] -> [N, C, H, W]
  90. x = shortcut + self.drop_path(x)
  91. return x
  92. class ConvNeXt(nn.Module):
  93. r""" ConvNeXt
  94. A PyTorch impl of : `A ConvNet for the 2020s` -
  95. https://arxiv.org/pdf/2201.03545.pdf
  96. Args:
  97. in_chans (int): Number of input image channels. Default: 3
  98. num_classes (int): Number of classes for classification head. Default: 1000
  99. depths (tuple(int)): Number of blocks at each stage. Default: [3, 3, 9, 3]
  100. dims (int): Feature dimension at each stage. Default: [96, 192, 384, 768]
  101. drop_path_rate (float): Stochastic depth rate. Default: 0.
  102. layer_scale_init_value (float): Init value for Layer Scale. Default: 1e-6.
  103. head_init_scale (float): Init scaling value for classifier weights and biases. Default: 1.
  104. """
  105. def __init__(self, in_chans: int = 3, num_classes: int = 1000, depths: list = None,
  106. dims: list = None, drop_path_rate: float = 0., layer_scale_init_value: float = 1e-6,
  107. head_init_scale: float = 1.):
  108. super().__init__()
  109. self.downsample_layers = nn.ModuleList() # stem and 3 intermediate downsampling conv layers
  110. # stem为最初的下采样部分
  111. stem = nn.Sequential(nn.Conv2d(in_chans, dims[0], kernel_size=4, stride=4),
  112. LayerNorm(dims[0], eps=1e-6, data_format="channels_first"))
  113. self.downsample_layers.append(stem)
  114. # 对应stage2-stage4前的3个downsample
  115. for i in range(3):
  116. downsample_layer = nn.Sequential(LayerNorm(dims[i], eps=1e-6, data_format="channels_first"),
  117. nn.Conv2d(dims[i], dims[i+1], kernel_size=2, stride=2))
  118. self.downsample_layers.append(downsample_layer)
  119. self.stages = nn.ModuleList() # 4 feature resolution stages, each consisting of multiple blocks
  120. dp_rates = [x.item() for x in torch.linspace(0, drop_path_rate, sum(depths))]
  121. cur = 0
  122. # 构建每个stage中堆叠的block
  123. for i in range(4):
  124. stage = nn.Sequential(
  125. *[Block(dim=dims[i], drop_rate=dp_rates[cur + j], layer_scale_init_value=layer_scale_init_value)
  126. for j in range(depths[i])]
  127. )
  128. self.stages.append(stage)
  129. cur += depths[i]
  130. self.norm = nn.LayerNorm(dims[-1], eps=1e-6) # final norm layer
  131. self.head = nn.Linear(dims[-1], num_classes)
  132. self.apply(self._init_weights)
  133. self.head.weight.data.mul_(head_init_scale)
  134. self.head.bias.data.mul_(head_init_scale)
  135. def _init_weights(self, m):
  136. if isinstance(m, (nn.Conv2d, nn.Linear)):
  137. nn.init.trunc_normal_(m.weight, std=0.2)
  138. nn.init.constant_(m.bias, 0)
  139. def forward_features(self, x: torch.Tensor) -> torch.Tensor:
  140. for i in range(4):
  141. x = self.downsample_layers[i](x)
  142. x = self.stages[i](x)
  143. return self.norm(x.mean([-2, -1])) # global average pooling, (N, C, H, W) -> (N, C)
  144. def forward(self, x: torch.Tensor) -> torch.Tensor:
  145. x = self.forward_features(x)
  146. x = self.head(x)
  147. return x
  148. def convnext_tiny(num_classes: int):
  149. # https://dl.fbaipublicfiles.com/convnext/convnext_tiny_1k_224_ema.pth
  150. model = ConvNeXt(depths=[3, 3, 9, 3],
  151. dims=[96, 192, 384, 768],
  152. num_classes=num_classes)
  153. return model
  154. def convnext_small(num_classes: int):
  155. # https://dl.fbaipublicfiles.com/convnext/convnext_small_1k_224_ema.pth
  156. model = ConvNeXt(depths=[3, 3, 27, 3],
  157. dims=[96, 192, 384, 768],
  158. num_classes=num_classes)
  159. return model
  160. def convnext_base(num_classes: int):
  161. # https://dl.fbaipublicfiles.com/convnext/convnext_base_1k_224_ema.pth
  162. # https://dl.fbaipublicfiles.com/convnext/convnext_base_22k_224.pth
  163. model = ConvNeXt(depths=[3, 3, 27, 3],
  164. dims=[128, 256, 512, 1024],
  165. num_classes=num_classes)
  166. return model
  167. def convnext_large(num_classes: int):
  168. # https://dl.fbaipublicfiles.com/convnext/convnext_large_1k_224_ema.pth
  169. # https://dl.fbaipublicfiles.com/convnext/convnext_large_22k_224.pth
  170. model = ConvNeXt(depths=[3, 3, 27, 3],
  171. dims=[192, 384, 768, 1536],
  172. num_classes=num_classes)
  173. return model
  174. def convnext_xlarge(num_classes: int):
  175. # https://dl.fbaipublicfiles.com/convnext/convnext_xlarge_22k_224.pth
  176. model = ConvNeXt(depths=[3, 3, 27, 3],
  177. dims=[256, 512, 1024, 2048],
  178. num_classes=num_classes)
  179. return model

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/419427
推荐阅读
相关标签
  

闽ICP备14008679号