当前位置:   article > 正文

项目实践 | 超强EfficientDet原理讲解与目标检测项目实践

efficientdet

点击最上方蓝色【AI算法修炼营关注公众号

回复【Det】即可获得完整的项目代码以及文档说明。

目录

1、EfficientDet简介

2、EfficientDet原理与PyTorch实现

    2.1、EfficientNet模型

        2.1.1、EfficientNet简介

        2.1.2、EfficientNet网络模型结构(附PyTorch代码)

    2.2、BiFPN模块(附PyTorch代码)

    2.3、EfficientDet结构

    2.4、模型复合扩张

    2.5、EfficientDet结构总结

    2.6、训练过程与测试结果

1、EfficientDet简介

    在简介部分,作者提出了 “鱼与熊掌俺能兼得乎?”,要知道在此之前,实际目标检测算法家族已经提出了很多很多经典的算法,有two-stage方法的,主要是早期的一些算法,如Fast R-CNN、Faster R-CNN,一般检测精度较高但速度慢,为了加快速度,后来逐步发展为one-stage,从RoI的提取到识别检测全部融合在一个框架下,实现 end to end,加快检测速度,但一般是以牺牲精度换速度的。

    因此在FPN及EfficientNet 的影响下,作者分别基于此在 FPN 基础上进行优化提出BiFPN以及全方位的模型缩放探索。

作者提出两个方法:

BiFPN: 这个毋庸置疑,肯定是从 FPN 发展过来的,至于 Bi 就是双向,原始的FPN实现的自顶向下(top-down)融合,所谓的BiFPN就是两条路线既有top-down也有down-top。

在融合过程中,之前的一些模型方法没有考虑到各级特征对融合后特征的g共享度问题,即之前模型认为各级特征的贡献度相同,而本文作者认为它们的分辨率不同,其对融合后特征的贡献度不同,因此在特征融合阶段引入了weight。

复合缩放方法(compound scaling method):这个主要灵感来自于 EfficientNet,即在基线网络上同时对多个维度进行缩放(一般都是放大),这里的维度体现在主干网络、特征网络、以及分类/回归网络全流程的整体架构上整体网络由主干网络、特征网络以及分类/回归网络组成,可以缩放的维度比 EfficientNet 多得多,所以用网络搜索方式不合适了,作者提出一些启发式方法,可以参照论文的 Table 1。

    该方法可以统一地对所有主干网、特征网络和预测网络的分辨率、深度和宽度进行缩放。基于这些优化,开发了一个新的对象检测器家族,称为EfficientDet。

2、EfficientDet原理与PyTorch实现

2.1、EfficientNet模型

2.1.1、EfficientNet简介

    模型的基础网络架构是通过使用神经网络架构搜索(neural architecture search)设计得到。为了研究系统的模型缩放,谷歌大脑的研究人员针对EfficientNets的基础网络模型提出了一种全新的模型缩放方法,该方法使用简单而高效的复合系数来权衡网络深度、宽度和输入图片分辨率。

    通过放大EfficientNets基础模型,获得了一系列EfficientNets模型。该系列模型在效率和准确性上战胜了之前所有的卷积神经网络模型。尤其是EfficientNet-B7在ImageNet数据集上得到了top-1准确率84.4%和top-5准确率97.1%的结果。且它和当时准确率最高的其它模型对比,大小缩小了8.4倍,效率提高了6.1倍。且通过迁移学习,EfficientNets在多个知名数据集上均达到了当时最先进的水平。

2.1.2、EfficientNet网络模型结构

1)移动翻转瓶颈卷积

    移动翻转瓶颈卷积也是通过神经网络架构搜索得到的,该模块结构与深度分离卷积(depthwise separable convolution)相似,该移动翻转瓶颈卷积首先对输入进行1x1的逐点卷积并根据扩展比例(expand ratio)改变输出通道维度(如扩展比例为3时,会将通道维度提升3倍。但如果扩展比例为1,则直接省略该1x1的逐点卷积和其之后批归一化和激活函数)。

    接着进行kxk的深度卷积(depthwise convolution)。如果要引入压缩与激发操作,该操作会在深度卷积后进行。再以1x1的逐点卷积结尾恢复原通道维度。

    最后进行连接失活(drop connect)和输入的跳越连接(skip connection),这一做法源于论文《Deep networks with stochastic depth》,它让模型具有了随机的深度,剪短了模型训练所需的时间,提升了模型性能(注意,在EfficientNets中,只有当相同的移动翻转瓶颈卷积重复出现时,才会进行连接失活和输入的跳越连接,且还会将其中的深度卷积步长变为1),连接失活是一种类似于随机失活(dropout)的操作,并且在模块的开始和结束加入了恒等跳越。注意该模块中的每一个卷积操作后都会进行批归一化,激活函数使用的是Swish激活函数。总流程如图1所示,是扩展比例为6,深度卷积大小为5x5,步长为2x2(MBConv6,k5x5,stride2x2)的移动翻转瓶颈卷积模块。

图 MBConv6,k5x5,stride2x2结构示意图

PyTorch实现MBConv模块:

  1. class MBConvBlock(nn.Module):
  2. """
  3. Mobile Inverted Residual Bottleneck 模块
  4. Args:
  5. block_args (namedtuple): 模型模块参数
  6. global_params (namedtuple): 全局参数
  7. Attributes:
  8. has_se (bool): 是否存在SENet
  9. """
  10. def __init__(self, block_args, global_params):
  11. super().__init__()
  12. self._block_args = block_args # EfficientNet全局参数
  13. self._bn_mom = 1 - global_params.batch_norm_momentum # 训练时的动量参数
  14. self._bn_eps = global_params.batch_norm_epsilon # BN的参数
  15. self.has_se = (self._block_args.se_ratio is not None) and (0 < self._block_args.se_ratio <= 1)
  16. self.id_skip = block_args.id_skip # 连接失活和跳跃连接
  17. # 恒等宽高卷积操作
  18. Conv2d = get_same_padding_conv2d(image_size=global_params.image_size)
  19. # 通道拓展操作
  20. inp = self._block_args.input_filters # number of input channels
  21. oup = self._block_args.input_filters * self._block_args.expand_ratio # number of output channels
  22. if self._block_args.expand_ratio != 1:
  23. self._expand_conv = Conv2d(in_channels=inp, out_channels=oup, kernel_size=1, bias=False)
  24. self._bn0 = nn.BatchNorm2d(num_features=oup, momentum=self._bn_mom, eps=self._bn_eps)
  25. # 深度卷积操作
  26. k = self._block_args.kernel_size
  27. s = self._block_args.stride
  28. # groups用于设置depthwise卷积(一个卷积核负责一个通道)
  29. self._depthwise_conv = Conv2d(in_channels=oup, out_channels=oup, groups=oup, kernel_size=k, stride=s, bias=False)
  30. self._bn1 = nn.BatchNorm2d(num_features=oup, momentum=self._bn_mom, eps=self._bn_eps)
  31. # SENet模块
  32. if self.has_se:
  33. num_squeezed_channels = max(1, int(self._block_args.input_filters * self._block_args.se_ratio))
  34. self._se_reduce = Conv2d(in_channels=oup, out_channels=num_squeezed_channels, kernel_size=1)
  35. self._se_expand = Conv2d(in_channels=num_squeezed_channels, out_channels=oup, kernel_size=1)
  36. # 最终输出模块
  37. final_oup = self._block_args.output_filters
  38. self._project_conv = Conv2d(in_channels=oup, out_channels=final_oup, kernel_size=1, bias=False)
  39. self._bn2 = nn.BatchNorm2d(num_features=final_oup, momentum=self._bn_mom, eps=self._bn_eps)
  40. self._swish = MemoryEfficientSwish()
  41. def forward(self, inputs, drop_connect_rate=None):
  42. """
  43. MBConv模块的流程:
  44. 0、输入
  45. 1、深度卷积操作
  46. 2、批归一化操作
  47. 3、Swish激活函数操作
  48. 4、深度卷积操作
  49. 5、批归一化操作
  50. 6、Swish激活函数操作
  51. 7、SENet操作
  52. 8、Depthwise Convolution操作
  53. 9、批归一化操作
  54. 10、连接失活和跳越连接操作
  55. 11、输出
  56. """
  57. # 0、输入
  58. x = inputs
  59. # 1+2+3、深度卷积+批归一化+Swish操作
  60. if self._block_args.expand_ratio != 1:
  61. x = self._swish(self._bn0(self._expand_conv(inputs)))
  62. # 4+5+6、Depthwise Convolution+批归一化+Swish操作
  63. x = self._swish(self._bn1(self._depthwise_conv(x)))
  64. # 7、SENet操作
  65. if self.has_se:
  66. x_squeezed = F.adaptive_avg_pool2d(x, 1)
  67. x_squeezed = self._se_expand(self._swish(self._se_reduce(x_squeezed)))
  68. x = torch.sigmoid(x_squeezed) * x
  69. # 8+9、批归一化+Depthwise Convolution
  70. x = self._bn2(self._project_conv(x))
  71. # 10、连接失活和跳越连接操作
  72. input_filters, output_filters = self._block_args.input_filters, self._block_args.output_filters
  73. if self.id_skip and self._block_args.stride == 1 and input_filters == output_filters:
  74. if drop_connect_rate:
  75. x = drop_connect(x, p=drop_connect_rate, training=self.training) # 连接失活
  76. x = x + inputs # 跳越连接操作
  77. # 11、输出
  78. return x

2)EfficientNet-B0结构说明

EfficientNet-B0结构由16个移动翻转瓶颈卷积模块,2个卷积层,1个全局平均池化层和1个分类层构成。其结构如图所示,图中不同的颜色代表了不同的阶段。

图 EfficientNet-B0结构图

第一阶段对输入的224x224x3的图像按顺序进行以下操作得到第一阶段的结果:

    1) 卷积(卷积核为32核3×3×3,步长为2×2,填充为“same”即输出的宽和高缩小一半),该卷积运算的输出是一个维度为(112×112×32)的特征图。因该层不含偏置项,故该层需要训练学习的参数共计864(32x3x3x3)个。

    2) 批归一化层(Batch Normalization,BN),该层输入为(112×112×32)的特征图,故该层含参数总数为128个(32x4),其中需要训练学习的参数为64个。

    3) Swish激活函数

第一阶段,总计参数128+864=992个,需要训练学习的参数928个。

第二阶段对前一阶段输出的112x112x32的特征图进行移动翻转瓶颈卷积

    一次移动翻转瓶颈卷积(扩张比例为1,深度卷积核大小为3x3,核步长为1x1,包含压缩与激发操作,无连接失活和连接跳越),并输出第二阶段的结果:

    1) 由于扩张比例为1,故跳过一开始的逐点卷积,直接进行深度卷积(卷积核为32核3×3×3,步长为1×1,填充为“same”即输出的宽和高不变)。深度卷积输出是一个维度为(112×112×32)的特征图。因该层不含偏置项,故该层需要训练学习的参数共计288(32x3x3x1)个。

    2) 批归一化层(Batch Normalization,BN),该层输入为(112×112×32)的特征图,故该层含参数总数为128个(32x4),其中需要训练学习的参数为64个。

    3) Swish激活函数。

    4) 全局平均池化层(global average pooling),该层在通道维度方向上进行全局平均池化,输出为(1x1x32)的特征图。

    5) 卷积(压缩与激发模块中的第一个卷积,卷积核为8核1x1x32,步长为1×1,填充为“same”即输出的宽和高不变),该卷积运算的输出是一个维度为(1×1×8)的特征图。因该层包含偏置项,故该层需要训练学习的参数共计264(8x1x1x32+8)个。

    6) Swish激活函数。

    7) 卷积(压缩与激发模块中的第二个卷积,卷积核为32核1x1x8,步长为1×1,填充为“same”即输出的宽和高不变),该卷积运算的的输出是一个维度为(1×1×32)的特征图。因该层包含偏置项,故该层需要训练学习的参数共计288(32x1x1x8+32)个。

    8) Sigmoid激活函数

    9) 与步骤3)的结果相乘,得到112x112x32的特征图。

    10) 逐点卷积(卷积核为16核1×1×32,步长为1×1,填充为“same”即输出的宽和高不变)该卷积运算的输出是一个维度为(112×112×16)的特征图。因该层不含偏置项,故该层需要训练学习的参数共计512(16x1x1x32)个。

    11) 批归一化层(Batch Normalization,BN),该层输入为(112×112×16)的特征图,故该层含参数总数为64个(16x4),其中需要训练学习的参数为32个。

第二阶段,总计参数288+128+264+288+512+64=1544个,需要训练学习的参数1448个。

第三阶段对前一阶段输出的112x112x16的特征图进行两次移动翻转瓶颈卷积

    第一个(扩张比例为6,深度卷积核大小为3x3,核步长为2x2,包含压缩与激发操作,无连接失活核连接跳越);

    第二个(扩张比例为6,深度卷积核大小为3x3,核步长为1x1,包含压缩与激发操作,有连接失活和连接跳越),并输出第二阶段的结果;

    第三阶段,总计参数17770个,需要训练学习的参数16705个。

第四阶段对前一阶段输出的56x56x24的特征图进行两次移动翻转瓶颈卷积

    第一个(扩张比例为6,深度卷积核大小为5x5,核步长为2x2,包含压缩与激发操作,无连接失活核连接跳越);

    第二个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活和连接跳越);

    输出是一个28x28x40的特征图。总计参数48336个,需要训练学习的参数46640个。

第五阶段对前一阶段输出的28x28x40的特征图进行三次移动翻转瓶颈卷积

    第一个(扩张比例为6,深度卷积核大小为3x3,核步长为2x2,包含压缩与激发操作,无连接失活核连接跳越);

    第二个(扩张比例为6,深度卷积核大小为3x3,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

    第三个(扩张比例为6,深度卷积核大小为3x3,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

    输出是一个14x14x80的特征图。总计参数248210个,需要训练学习的参数242930个。

第六阶段对前一阶段输出的14x14x80的特征图进行三次移动翻转瓶颈卷积

    第一个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,无连接失活核连接跳越);

    第二个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

    第三个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

    输出是一个14x14x112的特征图。总计参数551116个,需要训练学习的参数543148个。

第七阶段:对前一阶段输出的14x14x112的特征图进行四次移动翻转瓶颈卷积

第一个(扩张比例为6,深度卷积核大小为5x5,核步长为2x2,包含压缩与激发操作,无连接失活核连接跳越);

第二个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

第三个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

第四个(扩张比例为6,深度卷积核大小为5x5,核步长为1x1,包含压缩与激发操作,有连接失活核连接跳越);

输出是一个7x7x192的特征图。总计参数2044396个,需要训练学习的参数2026348个。

第八阶段,对前一阶段输出的7x7x192的特征图进行一次移动翻转瓶颈卷积

    (扩张比例为6,深度卷积核大小为3x3,核步长为1x1,包含压缩与激发操作,无连接失活核连接跳越);

    输出是一个7x7x320的特征图。总计参数722480个,需要训练学习的参数717232个。

第九阶段:对输入的7x7x320的图像按顺序进行以下操作得到模型最终的结果:

    1) 卷积(卷积核为1280核1×1×320,步长为1×1,填充为“same”即输出的宽和高不变),该卷积运算的输出是一个维度为(7×7×1280)的特征图。因该层不含偏置项,故该层需要训练学习的参数共计409600(1280x1x1x320)个。

    2) 批归一化层(Batch Normalization,BN),该层输入为(7×7×1280)的特征图,故该层含参数总数为5120个(1280x4),其中需要训练学习的参数为2560个。

    3) Swish激活函数

    4) 全局平均池化层(global average pooling),该层在通道维度方向上进行全局平均池化,输出为(1x1x1280)的特征图。

    5) 随机失活dropout

    6) 全连接层,该层有1000个神经元。因该层包含偏置项,总参数个数为1281000(1000x1280+1000)

    7) Softmax激活函数,输出分类结果。

    第九阶段,总计参数1695720个,需要训练学习的参数1693160个。

    除了EfficientNet-B0外,EfficientNet系列还有其它7个网络B0-B7,主要涉及三个参数深度参数、广度参数和输入分辨率参数,通过这三个参数来控制模型的缩放。

其中:

    深度参数通过与EfficientNet-B0中各阶段的模块重复次数相乘,得到更深层的网络架构;

    广度系数通过与EfficientNet-B0中各卷积操作输入的核个数相乘,得到表现能力更强的网络模型;

    输入分辨率参数控制的则是网络的输入图片的长宽大小。

PyTorch实现EfficientNet-B0模型:

  1. class EfficientNet(nn.Module):
  2. """
  3. EfficientNet model框架流程(B0为例):
  4. 输入 ——>
  5. ——> 第一阶段:卷积层 ——> 批归一化 ——> Swish激活函数
  6. ——> 第二阶段:1个MBConvBlock
  7. ——> 第三阶段:2个MBConvBlock
  8. ——> 第四阶段:2个MBConvBlock
  9. ——> 第五阶段:3个MBConvBlock
  10. ——> 第六阶段:3个MBConvBlock
  11. ——> 第七阶段:4个MBConvBlock
  12. ——> 第八阶段:1个MBConvBlock
  13. ——> 第九阶段:卷积层 ——> 批归一化 ——> Swish激活函数 ——> 全局平均池化 ——> 随机失活 ——> 全连接层 ——> Softmax 层
  14. ——> 输出
  15. """
  16. def __init__(self, blocks_args=None, global_params=None):
  17. super().__init__()
  18. assert isinstance(blocks_args, list), 'blocks_args should be a list'
  19. assert len(blocks_args) > 0, 'block args must be greater than 0'
  20. self._global_params = global_params
  21. self._blocks_args = blocks_args
  22. # 恒等宽高卷积操作
  23. Conv2d = get_same_padding_conv2d(image_size=global_params.image_size)
  24. # BN参数
  25. bn_mom = 1 - self._global_params.batch_norm_momentum
  26. bn_eps = self._global_params.batch_norm_epsilon
  27. in_channels = 3 # rgb
  28. # 输出通道数目
  29. out_channels = round_filters(32, self._global_params)
  30. self._conv_stem = Conv2d(in_channels, out_channels, kernel_size=3, stride=2, bias=False)
  31. self._bn0 = nn.BatchNorm2d(num_features=out_channels, momentum=bn_mom, eps=bn_eps)
  32. # 建立ModuleList of MBConvBlock 模块,方便多次使用和调用
  33. self._blocks = nn.ModuleList([])
  34. for i in range(len(self._blocks_args)):
  35. # Update block input and output filters based on depth multiplier.
  36. self._blocks_args[i] = self._blocks_args[i]._replace(
  37. input_filters=round_filters(self._blocks_args[i].input_filters, self._global_params),
  38. output_filters=round_filters(self._blocks_args[i].output_filters, self._global_params),
  39. num_repeat=round_repeats(self._blocks_args[i].num_repeat, self._global_params))
  40. self._blocks.append(MBConvBlock(self._blocks_args[i], self._global_params))
  41. if self._blocks_args[i].num_repeat > 1:
  42. self._blocks_args[i] = self._blocks_args[i]._replace(input_filters=self._blocks_args[i].output_filters, stride=1)
  43. for _ in range(self._blocks_args[i].num_repeat - 1):
  44. self._blocks.append(MBConvBlock(self._blocks_args[i], self._global_params))
  45. # 输出模块
  46. in_channels = self._blocks_args[len(self._blocks_args)-1].output_filters
  47. out_channels = round_filters(1280, self._global_params)
  48. self._conv_head = Conv2d(in_channels, out_channels, kernel_size=1, bias=False)
  49. self._bn1 = nn.BatchNorm2d(num_features=out_channels, momentum=bn_mom, eps=bn_eps)
  50. # 最后的全连接层以及输出阶段
  51. self._avg_pooling = nn.AdaptiveAvgPool2d(1)
  52. self._dropout = nn.Dropout(self._global_params.dropout_rate)
  53. self._fc = nn.Linear(out_channels, self._global_params.num_classes)
  54. self._swish = MemoryEfficientSwish()
  55. def set_swish(self, memory_efficient=True):
  56. """Sets swish function as memory efficient (for training) or standard (for export)"""
  57. self._swish = MemoryEfficientSwish() if memory_efficient else Swish()
  58. for block in self._blocks:
  59. block.set_swish(memory_efficient)
  60. def extract_features(self, inputs):
  61. """ Returns output of the final convolution layer """
  62. # 第一阶段
  63. x = self._swish(self._bn0(self._conv_stem(inputs)))
  64. P = []
  65. index = 0
  66. num_repeat = 0
  67. # 第二、三、四、五、六、七、八阶段
  68. for idx, block in enumerate(self._blocks):
  69. drop_connect_rate = self._global_params.drop_connect_rate
  70. if drop_connect_rate:
  71. drop_connect_rate *= float(idx) / len(self._blocks)
  72. x = block(x, drop_connect_rate=drop_connect_rate)
  73. # x = self._swish(self._bn1(self._conv_head(x)))
  74. num_repeat = num_repeat + 1
  75. if num_repeat == self._blocks_args[index].num_repeat:
  76. num_repeat = 0
  77. index = index + 1
  78. P.append(x)
  79. return P
  80. def forward(self, inputs):
  81. """ Calls extract_features to extract features, applies final linear layer, and returns logits. """
  82. bs = inputs.size(0)
  83. # Convolution layers
  84. x = self.extract_features(inputs)
  85. # Pooling and final linear layer
  86. # x = self._avg_pooling(x)
  87. # x = x.view(bs, -1)
  88. # x = self._dropout(x)
  89. # x = self._fc(x)
  90. return x
  91. @classmethod
  92. # 自身的预训练模型加载
  93. def from_name(cls, model_name, override_params=None):
  94. cls._check_model_name_is_valid(model_name)
  95. blocks_args, global_params = get_model_params(model_name, override_params)
  96. return cls(blocks_args, global_params)
  97. @classmethod
  98. # 下载的预训练模型加载
  99. def from_pretrained(cls, model_name, num_classes=1000, in_channels=3):
  100. model = cls.from_name(model_name, override_params={'num_classes': num_classes})
  101. load_pretrained_weights(
  102. model, model_name, load_fc=(num_classes == 1000))
  103. if in_channels != 3:
  104. Conv2d = get_same_padding_conv2d(image_size=model._global_params.image_size)
  105. out_channels = round_filters(32, model._global_params)
  106. model._conv_stem = Conv2d(in_channels, out_channels, kernel_size=3, stride=2, bias=False)
  107. return model
  108. @classmethod
  109. # load预训练权重
  110. def from_pretrained(cls, model_name, num_classes=1000):
  111. model = cls.from_name(model_name, override_params={'num_classes': num_classes})
  112. load_pretrained_weights(model, model_name, load_fc=(num_classes == 1000))
  113. return model
  114. @classmethod
  115. # 获取图像的shape
  116. def get_image_size(cls, model_name):
  117. cls._check_model_name_is_valid(model_name)
  118. _, _, res, _ = efficientnet_params(model_name)
  119. return res
  120. @classmethod
  121. # 检验预训练模型的名称是否正确
  122. def _check_model_name_is_valid(cls, model_name, also_need_pretrained_weights=False):
  123. """ Validates model name. None that pretrained weights are only available for
  124. the first four models (efficientnet-b{i} for i in 0,1,2,3) at the moment. """
  125. num_models = 4 if also_need_pretrained_weights else 8
  126. valid_models = ['efficientnet-b'+str(i) for i in range(num_models)]
  127. if model_name not in valid_models:
  128. raise ValueError('model_name should be one of: ' + ', '.join(valid_models))
  129. # 获取卷积后的特征图
  130. def get_list_features(self):
  131. list_feature = []
  132. for idx in range(len(self._blocks_args)):
  133. list_feature.append(self._blocks_args[idx].output_filters)
  134. return list_feature

2.2、BiFPN模块

    如下图所示,BiFPN在图e的基础上增加了shortcut,这些都是在现有的一些工作的基础上添砖加瓦。

图 BiFPN与其他的特征融合方法的比较

但是,以往的特征融合方法对所有输入特征一视同仁,在BiFPN中则引入了加权策略,下边介绍本文提出来的加权策略(类似attention机制)。

最直白的思想,加上一个可学习的权重即可,如下:

其中wi可以是一个标量(对每一个特征),可以是一个向量(对每一个通道),也可以是一个多维度的tenor(对每一个像素)。

    但是如果不对wi对限制容易导致训练不稳定,于是很自然的想到对每一个权重用softmax:

    但是计算softmax速度较慢,于是作者提出了快速的限制方法:

    为了保证weight大于0,weight前采用relu函数。以上图BiFPN结构中第6层为例:

PyTorch实现BiFPN模型:

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. from .module import ConvModule, xavier_init
  4. import torch
  5. class BIFPN(nn.Module):
  6. def __init__(self,
  7. in_channels,
  8. out_channels,
  9. num_outs,
  10. start_level=0,
  11. end_level=-1,
  12. stack=1,
  13. add_extra_convs=False,
  14. extra_convs_on_inputs=True,
  15. relu_before_extra_convs=False,
  16. no_norm_on_lateral=False,
  17. conv_cfg=None,
  18. norm_cfg=None,
  19. activation=None):
  20. super(BIFPN, self).__init__()
  21. assert isinstance(in_channels, list)
  22. self.in_channels = in_channels
  23. self.out_channels = out_channels
  24. self.num_ins = len(in_channels)
  25. self.num_outs = num_outs
  26. self.activation = activation
  27. self.relu_before_extra_convs = relu_before_extra_convs
  28. self.no_norm_on_lateral = no_norm_on_lateral
  29. self.stack = stack
  30. if end_level == -1:
  31. self.backbone_end_level = self.num_ins
  32. assert num_outs >= self.num_ins - start_level
  33. else:
  34. # if end_level < inputs, no extra level is allowed
  35. self.backbone_end_level = end_level
  36. assert end_level <= len(in_channels)
  37. assert num_outs == end_level - start_level
  38. self.start_level = start_level
  39. self.end_level = end_level
  40. self.add_extra_convs = add_extra_convs
  41. self.extra_convs_on_inputs = extra_convs_on_inputs
  42. self.lateral_convs = nn.ModuleList()
  43. self.fpn_convs = nn.ModuleList()
  44. self.stack_bifpn_convs = nn.ModuleList()
  45. for i in range(self.start_level, self.backbone_end_level):
  46. l_conv = ConvModule(
  47. in_channels[i],
  48. out_channels,
  49. 1,
  50. conv_cfg=conv_cfg,
  51. norm_cfg=norm_cfg if not self.no_norm_on_lateral else None,
  52. activation=self.activation,
  53. inplace=False)
  54. self.lateral_convs.append(l_conv)
  55. for ii in range(stack):
  56. self.stack_bifpn_convs.append(BiFPNModule(channels=out_channels,
  57. levels=self.backbone_end_level-self.start_level,
  58. conv_cfg=conv_cfg,
  59. norm_cfg=norm_cfg,
  60. activation=activation))
  61. # add extra conv layers (e.g., RetinaNet)
  62. extra_levels = num_outs - self.backbone_end_level + self.start_level
  63. if add_extra_convs and extra_levels >= 1:
  64. for i in range(extra_levels):
  65. if i == 0 and self.extra_convs_on_inputs:
  66. in_channels = self.in_channels[self.backbone_end_level - 1]
  67. else:
  68. in_channels = out_channels
  69. extra_fpn_conv = ConvModule(
  70. in_channels,
  71. out_channels,
  72. 3,
  73. stride=2,
  74. padding=1,
  75. conv_cfg=conv_cfg,
  76. norm_cfg=norm_cfg,
  77. activation=self.activation,
  78. inplace=False)
  79. self.fpn_convs.append(extra_fpn_conv)
  80. self.init_weights()
  81. # default init_weights for conv(msra) and norm in ConvModule
  82. def init_weights(self):
  83. for m in self.modules():
  84. if isinstance(m, nn.Conv2d):
  85. xavier_init(m, distribution='uniform')
  86. def forward(self, inputs):
  87. assert len(inputs) == len(self.in_channels)
  88. # build laterals
  89. laterals = [
  90. lateral_conv(inputs[i + self.start_level])
  91. for i, lateral_conv in enumerate(self.lateral_convs)
  92. ]
  93. # part 1: build top-down and down-top path with stack
  94. used_backbone_levels = len(laterals)
  95. for bifpn_module in self.stack_bifpn_convs:
  96. laterals = bifpn_module(laterals)
  97. outs = laterals
  98. # part 2: add extra levels
  99. if self.num_outs > len(outs):
  100. # use max pool to get more levels on top of outputs
  101. # (e.g., Faster R-CNN, Mask R-CNN)
  102. if not self.add_extra_convs:
  103. for i in range(self.num_outs - used_backbone_levels):
  104. outs.append(F.max_pool2d(outs[-1], 1, stride=2))
  105. # add conv layers on top of original feature maps (RetinaNet)
  106. else:
  107. if self.extra_convs_on_inputs:
  108. orig = inputs[self.backbone_end_level - 1]
  109. outs.append(self.fpn_convs[0](orig))
  110. else:
  111. outs.append(self.fpn_convs[0](outs[-1]))
  112. for i in range(1, self.num_outs - used_backbone_levels):
  113. if self.relu_before_extra_convs:
  114. outs.append(self.fpn_convs[i](F.relu(outs[-1])))
  115. else:
  116. outs.append(self.fpn_convs[i](outs[-1]))
  117. return tuple(outs)
  118. class BiFPNModule(nn.Module):
  119. def __init__(self,
  120. channels,
  121. levels,
  122. init=0.5,
  123. conv_cfg=None,
  124. norm_cfg=None,
  125. activation=None,
  126. eps=0.0001):
  127. super(BiFPNModule, self).__init__()
  128. self.activation = activation
  129. self.eps = eps
  130. self.levels = levels
  131. self.bifpn_convs = nn.ModuleList()
  132. # weighted
  133. self.w1 = nn.Parameter(torch.Tensor(2, levels).fill_(init))
  134. self.relu1 = nn.ReLU()
  135. self.w2 = nn.Parameter(torch.Tensor(3, levels - 2).fill_(init))
  136. self.relu2 = nn.ReLU()
  137. for jj in range(2):
  138. for i in range(self.levels-1): # 1,2,3
  139. fpn_conv = nn.Sequential(
  140. ConvModule(
  141. channels,
  142. channels,
  143. 3,
  144. padding=1,
  145. conv_cfg=conv_cfg,
  146. norm_cfg=norm_cfg,
  147. activation=self.activation,
  148. inplace=False)
  149. )
  150. self.bifpn_convs.append(fpn_conv)
  151. # default init_weights for conv(msra) and norm in ConvModule
  152. def init_weights(self):
  153. for m in self.modules():
  154. if isinstance(m, nn.Conv2d):
  155. xavier_init(m, distribution='uniform')
  156. def forward(self, inputs):
  157. assert len(inputs) == self.levels
  158. # build top-down and down-top path with stack
  159. levels = self.levels
  160. # w relu
  161. w1 = self.relu1(self.w1)
  162. w1 /= torch.sum(w1, dim=0) + self.eps # normalize
  163. w2 = self.relu2(self.w2)
  164. w2 /= torch.sum(w2, dim=0) + self.eps # normalize
  165. # build top-down
  166. idx_bifpn = 0
  167. pathtd = inputs
  168. inputs_clone = []
  169. for in_tensor in inputs:
  170. inputs_clone.append(in_tensor.clone())
  171. for i in range(levels - 1, 0, -1):
  172. pathtd[i - 1] = (w1[0, i-1]*pathtd[i - 1] + w1[1, i-1]*F.interpolate(
  173. pathtd[i], scale_factor=2, mode='nearest'))/(w1[0, i-1] + w1[1, i-1] + self.eps)
  174. pathtd[i - 1] = self.bifpn_convs[idx_bifpn](pathtd[i - 1])
  175. idx_bifpn = idx_bifpn + 1
  176. # build down-top
  177. for i in range(0, levels - 2, 1):
  178. pathtd[i + 1] = (w2[0, i] * pathtd[i + 1] + w2[1, i] * F.max_pool2d(pathtd[i], kernel_size=2) +
  179. w2[2, i] * inputs_clone[i + 1])/(w2[0, i] + w2[1, i] + w2[2, i] + self.eps)
  180. pathtd[i + 1] = self.bifpn_convs[idx_bifpn](pathtd[i + 1])
  181. idx_bifpn = idx_bifpn + 1
  182. pathtd[levels - 1] = (w1[0, levels-1] * pathtd[levels - 1] + w1[1, levels-1] * F.max_pool2d(
  183. pathtd[levels - 2], kernel_size=2))/(w1[0, levels-1] + w1[1, levels-1] + self.eps)
  184. pathtd[levels - 1] = self.bifpn_convs[idx_bifpn](pathtd[levels - 1])
  185.         return pathtd

2.3、EfficientDet结构

    组合了backbone(使用了EfficientNet)和BiFPN(特征网络)和Box prediction net,整个框架就是EfficientDet的基本模型,结构如下图:

    主干网络采用的是 EfficientNet 网络,BiFPN 是基于其 3~7 层的特征图进行的,融合后的特征喂给一个分类网络和 box 网络,分类与 box 网络在所有特征级上权重是共享的。

PyTorch实现EfficientDet结构:

  1. class EfficientDet(nn.Module):
  2. def __init__(self,
  3. num_classes,
  4. network='efficientdet-d0',
  5. D_bifpn=3,
  6. W_bifpn=88,
  7. D_class=3,
  8. is_training=True,
  9. threshold=0.01,
  10. iou_threshold=0.5):
  11. super(EfficientDet, self).__init__()
  12. self.backbone = EfficientNet.from_pretrained(MODEL_MAP[network])
  13. self.is_training = is_training
  14. self.neck = BIFPN(in_channels=self.backbone.get_list_features()[-5:],
  15. out_channels=W_bifpn,
  16. stack=D_bifpn,
  17. num_outs=5)
  18. self.bbox_head = RetinaHead(num_classes=num_classes, in_channels=W_bifpn)
  19. self.anchors = Anchors()
  20. self.regressBoxes = BBoxTransform()
  21. self.clipBoxes = ClipBoxes()
  22. self.threshold = threshold
  23. self.iou_threshold = iou_threshold
  24. for m in self.modules():
  25. if isinstance(m, nn.Conv2d):
  26. n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
  27. m.weight.data.normal_(0, math.sqrt(2. / n))
  28. elif isinstance(m, nn.BatchNorm2d):
  29. m.weight.data.fill_(1)
  30. m.bias.data.zero_()
  31. self.freeze_bn()
  32. self.criterion = FocalLoss()
  33. def forward(self, inputs):
  34. if self.is_training:
  35. inputs, annotations = inputs
  36. else:
  37. inputs = inputs
  38. x = self.extract_feat(inputs)
  39. outs = self.bbox_head(x)
  40. classification = torch.cat([out for out in outs[0]], dim=1)
  41. regression = torch.cat([out for out in outs[1]], dim=1)
  42. anchors = self.anchors(inputs)
  43. if self.is_training:
  44. return self.criterion(classification, regression, anchors, annotations)
  45. else:
  46. transformed_anchors = self.regressBoxes(anchors, regression)
  47. transformed_anchors = self.clipBoxes(transformed_anchors, inputs)
  48. scores = torch.max(classification, dim=2, keepdim=True)[0]
  49. scores_over_thresh = (scores > self.threshold)[0, :, 0]
  50. if scores_over_thresh.sum() == 0:
  51. print('No boxes to NMS')
  52. # no boxes to NMS, just return
  53. return [torch.zeros(0), torch.zeros(0), torch.zeros(0, 4)]
  54. classification = classification[:, scores_over_thresh, :]
  55. transformed_anchors = transformed_anchors[:, scores_over_thresh, :]
  56. scores = scores[:, scores_over_thresh, :]
  57. anchors_nms_idx = nms(
  58. transformed_anchors[0, :, :], scores[0, :, 0], iou_threshold=self.iou_threshold)
  59. nms_scores, nms_class = classification[0, anchors_nms_idx, :].max(
  60. dim=1)
  61.             return [nms_scores, nms_class, transformed_anchors[0, anchors_nms_idx, :]]

2.4、模型复合扩张

主干网络部分:这部分直接把 EfficientNet 缩放拿过来用即可,即 EfficientNet B0-B6,借助其现成的 checkpoints,就不折腾了;

BiFPN 网络部分:这部分借鉴 EfficientNet,在 Channel 上直线指数级增加,在深度上线性增加,具体的缩放系数公式为:

Box/class 预测网络部分:其宽度与 BiFPN 部分保持一致,深度方面采用

图片分辨率部分: 因为特征提取选择的是 3~7 层,第 7 层的大小为原始图片的1/2^7,所以输入图像的大小必须是 128 的倍数

    D7 明显是超出内存大小了,只是在 D6 基础上增加了分辨率大小。

2.5、EfficientDet结构总结

BiFPN模型复合扩张策略都非常有效,BiFPN和综合平衡分辨率、深度和宽度提升性能。但是一方面BiFPN除了Feature map的加权组合是新的提的,PANet和shortcut的思路其他论文也都提过,另一方面就是平衡三者的方法完全是个经验值,并没有理论上的分析或者指导,可能最后还是要依靠NAS来给出最优的策略。

2.6、训练过程与测试结果

参考:

https://zhuanlan.zhihu.com/p/111115509

https://blog.csdn.net/weixin_37179744/article/details/103217305

https://zhuanlan.zhihu.com/p/96773680

注意:数据集为voc2012与coco2014数据集,可以自行下载。

  1. 目标检测系列秘籍一:模型加速之轻量化网络秘籍二:非极大值抑制及回归损失优化秘籍三:多尺度检测秘籍四:数据增强秘籍五:解决样本不均衡问题秘籍六:Anchor-Free视觉注意力机制系列Non-local模块与Self-attention之间的关系与区别?视觉注意力机制用于分类网络:SENet、CBAM、SKNetNon-local模块与SENet、CBAM的融合:GCNet、DANetNon-local模块如何改进?来看CCNet、ANN
  2. 语义分割系列一篇看完就懂的语义分割综述最新实例分割综述:从Mask RCNN 到 BlendMask超强视频语义分割算法!基于语义流快速而准确的场景解析CVPR2020 | HANet:通过高度驱动的注意力网络改善城市场景语义分割
  3. 基础积累系列卷积神经网络中的感受野怎么算?
  4. 图片中的绝对位置信息,CNN能搞定吗?理解计算机视觉中的损失函数深度学习相关的面试考点总结
  5. 自动驾驶学习笔记系列 Apollo Udacity自动驾驶课程笔记——高精度地图、厘米级定位 Apollo Udacity自动驾驶课程笔记——感知、预测 Apollo Udacity自动驾驶课程笔记——规划、控制自动驾驶系统中Lidar和Camera怎么融合?
  6. 竞赛与工程项目分享系列如何让笨重的深度学习模型在移动设备上跑起来基于Pytorch的YOLO目标检测项目工程大合集目标检测应用竞赛:铝型材表面瑕疵检测基于Mask R-CNN的道路物体检测与分割
  7. SLAM系列视觉SLAM前端:视觉里程计和回环检测视觉SLAM后端:后端优化和建图模块视觉SLAM中特征点法开源算法:PTAM、ORB-SLAM视觉SLAM中直接法开源算法:LSD-SLAM、DSO视觉SLAM中特征点法和直接法的结合:SVO
  8. 2020年最新的iPad Pro上的激光雷达是什么?来聊聊激光SLAM
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/864241
推荐阅读
相关标签
  

闽ICP备14008679号