当前位置:   article > 正文

YOLOv9改进 添加三分支注意力机制TripletAttention

YOLOv9改进 添加三分支注意力机制TripletAttention

一、TripletAttention论文

论文地址: 2010.03045.pdf (arxiv.org)

二、TripletAttention结构

对于输入张量,TripletAttention通过旋转操作和残差变换建立维度间依赖关系,并以可忽略的计算开销对通道间和空间信息进行编码。TripletAttention通过几乎无参数的特点来建模通道注意和空间注意。如下图所示,TripletAttention由三个平行的Branch组成,其中前两个分支负责捕获通道C和空间W或H之间的跨维度交互,最后一个最后一个Branch类似于CBAM(Convolutional Block Attention Module)结构,用于构建Spatial Attention。最终3个Branch的输出使用平均进行聚合。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/256563
推荐阅读
相关标签
  

闽ICP备14008679号