当前位置:   article > 正文

第七周学习任务:视频学习与论文泛读_position attention module

position attention module

1.【BMVC2018】BAM: Bottleneck Attention Module

        文章把重心放在了Attention对于一般深度神经网络的影响上,提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,模型通过两个分离的路径 channel和spatial, 得到一个Attention Map。

        结构图:

        BAM与一个通用的CNN架构集成。将BAM放在了Resnet网络中每个stage之间。通过可视化我们可以看到多层BAMs形成了一个分层的注意力机制,这有点像人类的感知机制。BAM在每个stage之间消除了像背景语义特征这样的低层次特征,然后逐渐聚焦于高级的语义–明确的目标。

 Bottleneck Attention Module

对于给定的feature map ,BAM可以得到一个3D的Attention map 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/366877
推荐阅读
相关标签
  

闽ICP备14008679号