当前位置:   article > 正文

YOLOv7 | 注意力机制 | 添加ECA注意力机制

YOLOv7 | 注意力机制 | 添加ECA注意力机制

目录

原理简介

代码实现

yaml文件实现(tips:可以添加不同的位置)

检查是否添加执行成功 

完整代码分享 

论文创新必备(可帮忙做实验)

启动命令


ECA通道注意力机制的一种实现形式,是基于SE的扩展。

作者认为SE block的两个FC层之间的降维是不利于channel attention的权重学习的,并且捕获所有通道之间的依存关系是效率不高且是不必要的。权重学习的过程应该直接一一对应。

ECA 注意力机制模块直接在全局平均池化层之后使用1x1卷积层,去除了全连接层。该模块避免了维度缩减,并有效捕获了跨通道交互。并且ECA只涉及少数参数就能达到很好的效果

ECA通过一维卷积 layers.Conv1D 来完成跨通道间的信息交互,卷积核的大小通过一个函数来自适应变化,使得通道数较大的层可以更多地进行跨通道交互。

⭐欢迎大家订阅我的专栏一起学习⭐

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/346251
推荐阅读