赞
踩
文章把重心放在了Attention对于一般深度神经网络的影响上,提出了一个简单但是有效的Attention 模型—BAM,它可以结合到任何前向传播卷积神经网络中,模型通过两个分离的路径 channel和spatial, 得到一个Attention Map。
结构图:
BAM与一个通用的CNN架构集成。将BAM放在了Resnet网络中每个stage之间。通过可视化我们可以看到多层BAMs形成了一个分层的注意力机制,这有点像人类的感知机制。BAM在每个stage之间消除了像背景语义特征这样的低层次特征,然后逐渐聚焦于高级的语义–明确的目标。
Bottleneck Attention Module
对于给定的feature map ,BAM可以得到一个3D的Attention map
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。