赞
踩
Swin-Unet:最早用于医学图像分割的类Unet-Transformer ,使用相应的Swin-Unet在遥感数据集进行相应的测试
卷积神经网络(cnn)在医学图像分析方面取得了里程碑,提出了Swin-Unet,它是一个类unet的纯Transformer
相应特点:
Swin Transformer作为编码器来提取上下文特征,设计了一种基于对称Swin Transformer 的补丁扩展层解码器
对特征图进行上采样操作,恢复特征图的空间分辨率
纯基于Transformer 的u型编码器-解码器网络优于全卷积或Transformer 与卷积结合的方法
Swin-Unet是第一个纯基于transformer的u型架构,由编码器、bottleneck、解码器和跳过连接组成,使用bottleneck 的网络结构很方便改变维度。灵活设计网络,并且减小计算量。
编码器、bottleneck和解码器都是基于Swin Transformer区块构建的
相应操作:
作用:
相应组成部分:
具体操作:
图像分割成不重叠的patch, patch大小为4 × 4,将输入信息转换为序列嵌入
patch token通过多个Swin Transformer块和patch合并层生成分层的特征表示
patch merge层负责降采样和增维
Swin Transformer块负责特征表示学习
patch Expanding执行上采样
最后使用最后一层patch展开层进行4×上采样,将特征图的分辨率恢复到输入分辨率
跳跃式连接的目的是弥补了下采样造成的空间信息丢失
Swin Transformer block是基于移位窗口构造的
具体组成:
Encoder
Transformer块构造瓶颈来学习深度特征表示。在Bottleneck,特征维数和分辨率保持不变
解码器中使用patch Expanding对提取的深层特征进行上采样。patch Expanding将相邻维度的特征图重塑为更高分辨率的特征图(2×上采样),并相应地将特征维数降低到原维数的一半
重排操作将输入特征的分辨率扩大到输入分辨率的2倍S
但是换个问法哈,有必要加这个Swin Transformer块吗,本质上都是对其进行上采样,是为了保持结构对称吗
Skip connection的作用:
在原始的论文中,使用了ImageNet上预训练的权重用于初始化模型参数,在自己的使用中并没有进行预训练操作
基于transformer的模型的性能受到模型预训练的严重影响。论文中,我们直接使用ImageNet上Swin Transformer]的训练权值来初始化网络编码器和解码器,这可能是一种次优方案
Vaihingen Dataset
包含33张由先进机载传感器采集的真正射影像(TOP)图像,每个TOP图像都有红外(IR)、红色®和绿色(G)通道。
相应参数:
Potsdam Dataset
有38个相同大小的patch (6000 × 6000),都是从高分辨率TOP提取
相应参数:
实验具体参数:
参考论文中的精度为为best_miou为0.58,复现效果为0.56,属于在误差范围里面,这里只采用了Vaihingen Dataset,来进行相应的复现
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。