赞
踩
多注意力机制引导网络关注于局部特征
真实伪造人脸之间的差异往往是细微的并且往往发生在不同的区域中,这很难被单注意力结构网络所捕获,
使用基于注意力的池化来取代全局池化层,因为不同区域之间的纹理特征差异很大,如果使用全局池化层可能导致这种差异被平均,导致可区分性的损失
纹理增强模块用于放大浅层特征中纹理细节
将由注意力机制引导的浅层纹理特征和深层语义特征结合BAP
由于一般的增强策略会使得多注意力机制退化成单注意力机制,因此设计以下2个机制来引导多注意力机制的学习
区域独立性损失
注意力引导的增强机制
1.多注意力模块组成比较简单,输入为特征提取网络中某一层的的输出,经过一个卷积核大小为1*1的卷积层以及Batch normalization 和Relu激活函数产生注意力图,输出注意力图的通道数为特征图的数目,这里架设为k张
首先将获取的k张注意力图的通过双线性插值的方法调整至于前面提取纹理特征图大小一致,然后对于每一张attention map 将其与前面提取出的纹理特征图逐元素相乘,因此最终获得k张基于注意力的纹理特征图。(k*channel*w*h)
得到基于注意力的纹理特征图后,通常是对每个特征图进行全局池化来得到每张的特征图的特征向量,即channel维特征向量的,最终得到一个k*channel的特征矩阵,但是考虑不同attention map的强度存在不一致,这样会导致一部分特征图的特征向量的值很大,一部分特征图产生特征向量很小,进而会导致一些区域的纹理信息被特别强调,一部分区域的纹理信息被抑制,这样就违背了我们想关系不同区域纹理信息的初衷,其实会变相导致多注意力机制退化成单注意力机制。因此这里采用了一个标准化的池化操作。这样不要map产生的特征向量的里面元素值的范围就会被限定在一个相同的范围里。
基于AGDA的数据增强模块主要进行如下操作:
通过AGDA这样一个数据增强操作后模型每个attention-map中所关注的区域会更加均匀,不会过分地强调在一些特定的位置上,同一个attention-map中的响应更加均匀,AGDA可以随机地抹去最明显的区分性区域,这迫使不同的注意力地图把它们的反应集中在不同的目标上。AGDA机制可以防止单个注意力区域扩展过快,并鼓励注意力块探索各种注意力区域划分形式。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。