赞
踩
论文地址: 2010.03045.pdf (arxiv.org)
对于输入张量,TripletAttention通过旋转操作和残差变换建立维度间依赖关系,并以可忽略的计算开销对通道间和空间信息进行编码。TripletAttention通过几乎无参数的特点来建模通道注意和空间注意。如下图所示,TripletAttention由三个平行的Branch组成,其中前两个分支负责捕获通道C和空间W或H之间的跨维度交互,最后一个最后一个Branch类似于CBAM(Convolutional Block Attention Module)结构,用于构建Spatial Attention。最终3个Branch的输出使用平均进行聚合。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。