赞
踩
网络结构主要有两点创新,一个是双流注意力模块的设计,另一个是对FFN的改进。
双流注意力模块DSTB如上图a所示,它由双流注意力DSA和双流前馈网络DSTN串联而成,DSA由空间注意力模块MSSA和光谱注意力模块MDSA并联而成。其中MSSA是之前的工作中常用的注意力模块,可以提取像素级的全局相似性,MDSA是针对高光谱图像的特点设计的注意力模块,可以提取光谱级别的特征相似性。除此之外,本文认为传统的FFN模块当中,两个全连接的操作只考虑了全局信息,忽略了局部信息,为改善这种情况,本文采用并行的方式,使用卷积提取局部信息,使用全连接提取全局信息,并将两部分相乘。
对高光谱图像的处理可以参照普通图像的处理,在此基础上基于高光谱图像的特点进行改进。
总体来说,本文设计的卷积块是在swin transformer的基础上进行的改进,本文的网络使用了大核卷积作为特征提取的主干,以扩大感受野,并通过扩展独立通道来丰富特征。
可以尝试使用大核卷积,将大核卷积用于初步的特征提取以获得更全局的特征。
提出了一个简单有效的应用程序友好的网络,称为SimpleNet,用于图像异常部位的检测和定位。
本文的方法基于三个直觉:
SimpleNet由四个部分组成:
在训练阶段,样本被送入预训练的特征提取器以获得局部特征。然后,利用特征适配器将预训练的特征适应目标域,再通过将高斯噪声添加到适应的特征来合成异常特征,适应的特征和异常特征分别用作正样本和负样本来训练最终的鉴别器。
感觉有点GAN那意思了(
本文提出的DRSformer主要包含具有top-k稀疏注意力(TKSA)和混合尺度前馈网络(MSFN)的稀疏Transformer块(STB),以及专家特征补偿器(MEFC)的混合。
本文认为标准Transformer 采用所有标记来全局计算自注意力,这对于图像恢复来说并不友好,因为它可能涉及不相关特征之间的噪声交互。为了解决这些限制,本文利用神经网络中出现的稀疏性的优势,开发了一个稀疏变压器块(STB)作为特征提取单元,使用TKSA替换自注意力,计算所有重构的查询和键之间的像素对的相似性,并通过选取Top-k来自适应地屏蔽掉在大小为 RˆC×^C 的转置注意矩阵M中注意力权重较低的不必要的元素,通过在传输过程中插入两个多尺度深度卷积路径来构造出MSFN。
在专家特征补偿器(MEFC)中,本文选择了多个稀疏CNN操作来形成并行层,称为专家,让自注意力成为不同专家的切换器,以根据输入自适应地选择不同表示的重要性。
在做图像修复或超分的时候或许也可以引入类似的专家模块。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。