当前位置:   article > 正文

YOLOv10论文解读——实时的端到端目标检测模型【附结构图】_yolov10模型图

yolov10模型图

过去几年里,YOLOs因在计算成本和检测性能之间实现有效平衡而成为实时目标检测领域的主流范式。研究人员针对YOLOs的结构设计、优化目标、数据增强策略等进行了深入探索,并取得了显著进展。然而,对非极大值抑制(NMS)的后处理依赖阻碍了YOLOs的端到端部署,并对推理延迟产生负面影响。此外,YOLOs中各种组件的设计缺乏全面和彻底的审查,导致明显的计算冗余并限制了模型的性能。这导致次优的效率,以及性能提升的巨大潜力。在这项工作中,我们旨在从后处理和模型架构两个方面进一步推进YOLOs的性能-效率边界。为此,我们首先提出了用于YOLOs无NMS训练的持续双重分配,该方法同时带来了竞争性的性能和较低的推理延迟。此外,我们为YOLOs引入了全面的效率-准确性驱动模型设计策略。我们从效率和准确性两个角度全面优化了YOLOs的各个组件,这大大降低了计算开销并增强了模型能力。我们的努力成果是新一代YOLO系列,专为实时端到端目标检测而设计,名为YOLOv10。广泛的实验表明,YOLOv10在各种模型规模下均达到了最先进的性能和效率。例如,在COCO数据集上,我们的YOLOv10-S在相似AP下比RT-DETR-R18快1.8倍,同时参数和浮点运算量(FLOPs)减少了2.8倍。与YOLOv9-C相比,YOLOv10-B在相同性能下延迟减少了46%,参数减少了25%。

论文地址:YOLOv10: Real-Time End-to-End Object Detection点击即可跳转

官方代码:官方代码仓库点击即可跳转

关注我后续会发布更详细的解读以及创新

目录

1. 创新点

2. 精度对比

3. 一致匹配度量(Consistent Matching Metric)

3.1 效率驱动的模型设计

3.2 基于秩的块设计(Rank-Guided Block Design)

3.3 精度驱动的模型设计

3.4 YOLOv10的base版本yaml文件

4.总结


1. 创新点

无NMS的一致双分配(consistent dual assignments):

  • YOLOv10提出了一种通过双标签分配而不用非极大值抑制NMS的策略。这种方法结合了一对多和一对一分配策略的优势,提高了效率并保持了性能。

效率-精度驱动的模型设计(Holistic Efficiency-Accuracy Driven Model Design):

  • 轻量化分类头:在不显著影响性能的情况下,减少了计算开销。

  • 空间-通道解耦下采样:解耦空间下采样和通道调整,优化计算成本。

  • 基于秩的块设计:根据各阶段的内在秩适应块设计,减少冗余,提高效率。

  • 大核卷积和部分自注意力PSA:在不显著增加计算成本的情况下,增强了感受野和全局建模能力。

图片

1. 一致双分配策略(Consistent Dual Assignments)

YOLOv10引入了一种新的双分配策略,用于在训练期间同时利用一对多(one-to-many)和一对一(one-to-one)标签分配。这种方法在保持模型高效训练的同时,摆脱了推理过程中对非极大值抑制NMS的依赖。

双标签分配(Dual Label Assignments)

  • 一对多分配:在训练期间,多个预测框被分配给一个真实物体标签。这种策略提供了丰富的监督信号,优化效果更好。

  • 一对一分配:仅一个预测框被分配给一个真实物体标签,避免了NMS,但由于监督信号较弱,容易导致收敛速度慢和性能欠佳。

  • 双头架构:模型在训练期间使用两个预测头,一个使用一对多分配,另一个使用一对一分配。这样,模型可以在训练期间利用一对多分配的丰富监督信号,而在推理期间则使用一对一分配的预测结果,从而实现无NMS的高效推理。

2. 精度对比

  • 图片

    可视化结果

    图片

    消融实验和分析

    图片

    图片

图片

3. 一致匹配度量(Consistent Matching Metric)

为了在训练期间保持两个预测头的一致性,提出了一致匹配度量。通过调整匹配度量参数,使得一对一和一对多分配的监督信号一致,减少了训练期间的监督差距,提升了模型的预测质量。

整体效率-精度驱动的模型设计(Holistic Efficiency-Accuracy Driven Model Design)

YOLOv10在模型架构的各个方面进行了全面优化,旨在提升效率精度

3.1 效率驱动的模型设计

轻量化分类头(Lightweight Classification Head)

在YOLO系列中,分类头和回归头通常共享相同的架构,但分类任务的计算开销更大。为分类头采用轻量级的架构,包括两个3×3的深度可分离卷积(depthwise separable convolutions)和一个1×1卷积,以减少计算开销。

空间-通道解耦下采样(Spatial-Channel Decoupled Downsampling)

传统的下采样方法同时进行空间和通道的转换,计算成本较高。YOLOv10首先使用逐点卷积(pointwise convolution)调整通道维度,然后使用深度卷积(depthwise convolution)进行空间下采样。这样可以最大限度地保留信息,同时减少计算成本。

3.2 基于秩的块设计(Rank-Guided Block Design)

在YOLO模型中,各阶段通常使用相同的基本构建块,容易导致深层阶段的计算冗余。因此根据各阶段的内在秩(intrinsic rank)调整块设计,减少冗余,采用紧凑的反向块(Compact Inverted Block, CIB)设计,用深度卷积进行空间混合和逐点卷积进行通道混合,提高效率。

图片

3.3 精度驱动的模型设计

大核卷积(Large-Kernel Convolution)

大核卷积的感受野较大,能够更好地捕捉图像中的全局信息。然而,直接在所有阶段使用大核卷积可能会导致小物体特征的污染,并增加高分辨率阶段的I/O开销和延迟。因此,在深层阶段使用大核深度卷积(如7×7)来扩大感受野,增强模型能力,同时使用结构重参数化技术(structural reparameterization)优化训练。

对于小模型规模(如YOLOv10-N/S),大核卷积的使用能够显著提升性能,而对于大模型规模(如YOLOv10-M),其天然较大的感受野使得大核卷积的效果不明显,因此仅在小模型中使用。

部分自注意力(Partial Self-Attention, PSA)

部分自注意力模块通过引入全局建模能力来提升模型性能,同时保持较低的计算开销。

自注意力(self-attention)在视觉任务中因其出色的全局建模能力而被广泛使用,但其计算复杂度和内存占用较高。本文引入PSA模块,通过将特征按通道分成两部分,仅对一部分应用多头自注意力(Multi-Head Self-Attention, MHSA),然后进行融合,增强全局建模能力,降低计算复杂度。

3.4 YOLOv10的base版本yaml文件

  1. # Parameters
  2. nc: 80 # number of classes
  3. scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  4. # [depth, width, max_channels]
  5. b: [0.67, 1.00, 512]
  6. # YOLOv8.0n backbone
  7. backbone:
  8. # [from, repeats, module, args]
  9. - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  10. - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  11. - [-1, 3, C2f, [128, True]]
  12. - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  13. - [-1, 6, C2f, [256, True]]
  14. - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  15. - [-1, 6, C2f, [512, True]]
  16. - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  17. - [-1, 3, C2fCIB, [1024, True]]
  18. - [-1, 1, SPPF, [1024, 5]] # 9
  19. - [-1, 1, PSA, [1024]] # 10
  20. # YOLOv8.0n head
  21. head:
  22. - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  23. - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  24. - [-1, 3, C2fCIB, [512, True]] # 13
  25. - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  26. - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  27. - [-1, 3, C2f, [256]] # 16 (P3/8-small)
  28. - [-1, 1, Conv, [256, 3, 2]]
  29. - [[-1, 13], 1, Concat, [1]] # cat head P4
  30. - [-1, 3, C2fCIB, [512, True]] # 19 (P4/16-medium)
  31. - [-1, 1, SCDown, [512, 3, 2]]
  32. - [[-1, 10], 1, Concat, [1]] # cat head P5
  33. - [-1, 3, C2fCIB, [1024, True]] # 22 (P5/32-large)
  34. - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

结构图:

根据官方的代码,画出C2fCIB的模块图,代码中有两种结构,因此画了两张图

  1. class CIB(nn.Module):
  2. """Standard bottleneck."""
  3. def __init__(self, c1, c2, shortcut=True, e=0.5, lk=False):
  4. """Initializes a bottleneck module with given input/output channels, shortcut option, group, kernels, and
  5. expansion.
  6. """
  7. super().__init__()
  8. c_ = int(c2 * e) # hidden channels
  9. self.cv1 = nn.Sequential(
  10. Conv(c1, c1, 3, g=c1),
  11. Conv(c1, 2 * c_, 1),
  12. Conv(2 * c_, 2 * c_, 3, g=2 * c_) if not lk else RepVGGDW(2 * c_),
  13. Conv(2 * c_, c2, 1),
  14. Conv(c2, c2, 3, g=c2),
  15. )
  16. self.add = shortcut and c1 == c2
  17. def forward(self, x):
  18. """'forward()' applies the YOLO FPN to input data."""
  19. return x + self.cv1(x) if self.add else self.cv1(x)
  20. class C2fCIB(C2f):
  21. """Faster Implementation of CSP Bottleneck with 2 convolutions."""
  22. def __init__(self, c1, c2, n=1, shortcut=False, lk=False, g=1, e=0.5):
  23. """Initialize CSP bottleneck layer with two convolutions with arguments ch_in, ch_out, number, shortcut, groups,
  24. expansion.
  25. """
  26. super().__init__(c1, c2, n, shortcut, g, e)
  27. self.m = nn.ModuleList(CIB(self.c, self.c, shortcut, e=1.0, lk=lk) for _ in range(n))

  1. class RepVGGDW(torch.nn.Module):
  2. def __init__(self, ed) -> None:
  3. super().__init__()
  4. self.conv = Conv(ed, ed, 7, 1, 3, g=ed, act=False)
  5. self.conv1 = Conv(ed, ed, 3, 1, 1, g=ed, act=False)
  6. self.dim = ed
  7. self.act = nn.SiLU()
  8. def forward(self, x):
  9. return self.act(self.conv(x) + self.conv1(x))
  10. def forward_fuse(self, x):
  11. return self.act(self.conv(x))
  12. @torch.no_grad()
  13. def fuse(self):
  14. conv = fuse_conv_and_bn(self.conv.conv, self.conv.bn)
  15. conv1 = fuse_conv_and_bn(self.conv1.conv, self.conv1.bn)
  16. conv_w = conv.weight
  17. conv_b = conv.bias
  18. conv1_w = conv1.weight
  19. conv1_b = conv1.bias
  20. conv1_w = torch.nn.functional.pad(conv1_w, [2,2,2,2])
  21. final_conv_w = conv_w + conv1_w
  22. final_conv_b = conv_b + conv1_b
  23. conv.weight.data.copy_(final_conv_w)
  24. conv.bias.data.copy_(final_conv_b)
  25. self.conv = conv
  26. del self.conv1

4.总结

YOLOv10引入了额外的one-to-one头部,通过双分配策略,在训练时提供更丰富的监督信息,而在推理时则利用one-to-one头部进行高效预测,从而无需NMS后处理。此外,YOLOv10从效率和准确性两个方面全面优化了YOLO的各个组件,包括轻量级分类头部、空间-通道解耦的下采样层、基于秩的模块设计等,以降低计算冗余并提升模型性能。 

YOLOv10检测器的提出不仅为实时目标检测领域带来了新的突破,也展示了通过后处理和模型设计的联合优化,同时提升效率和精度的有效思路。YOLOv10检测器有望在自动驾驶、机器人导航、物体跟踪等实际应用中得到广泛应用,为实时目标检测任务带来更高的效率。

对于后处理,我们提出了用于NMS-free训练的一致双分配策略,实现了高效的端到端检测。在模型架构方面,我们引入了全面的效率和准确性驱动的模型设计策略,改善了性能和效率之间的权衡。这些创新带来了我们的YOLOv10,这是一个全新的实时端到端目标检测器。大量的实验结果表明,YOLOv10与其他先进检测器相比,在性能和延迟方面都取得了state-of-the-art的成果,充分展示了其优越性。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/684214
推荐阅读
相关标签
  

闽ICP备14008679号