当前位置:   article > 正文

YoloV8改进策略:HAM混合注意力机制改进YoloV8|多种改进,多种姿势涨点|代码注释详解

ham混合注意力机制

摘要

HAM通过快速一维卷积来缓解通道注意机制的负担,并引入通道分离技术自适应强调重要特征。HAM作为通用模块,在CIFAR-10、CIFAR-100和STL-10数据集上实现了SOTA级别的分类性能。

论文链接:https://www.sciencedirect.com/science/article/abs/pii/S0031320322002667?via%3Dihub

方法

通道注意力如下图:
在这里插入图片描述
输入特征首先经过两个分支的不同池化得到和,这与CBAM中保持一致,平均池化可以学习到目标物体的程度信息,最大池化则能够学习到物体的判别性特征,同时使用的话,最大池化编码目标的显著性信息,能够很好地弥补平均池化编码的全局信息。

空间注意模块如下图:

在这里插入图片描述
输入特征为经过通道注意模块的通道细化特征,其中每个通道都具有不同的重要性(在数值表现上,通道注意张量中重要的通道权重更大)。因此作者等人提出应将通道细化特征沿通道轴线进行划分,重要特征分为一组,次重要特征分为一组。

嵌入到ResNet的Block中,如下图:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/413538
推荐阅读
相关标签
  

闽ICP备14008679号