赞
踩
UNet++: A Nested U-Net Architecturefor Medical Image Segmentatio
UNet++也是主要用于医学图像分割网络:
作者认为拼接在一起的encoder和decoder的feature map语义相似时,优化器更容易处理。
UNet++相对于UNet网络,在encoder下采样过程中,在每一层均进行了上采样,因为每个encoder层的语义信息都很重要,不应该只在最深层才上采样。同时,Unet在最深层才上采样,在进行跳跃连接时,会导致语义上不相似的特征图融合在一起。故提前上采样有必要。
为使得提前上采样的featuremap可以加入网络的学习,在
X
0
,
1
X^{0,1}
X0,1,
X
0
,
2
X^{0,2}
X0,2,
X
0
,
3
X^{0,3}
X0,3后面加入了
1
×
1
1 \times 1
1×1卷积。
Unet的encoder每一层的featureMap直接在decoder中拼接;UNet++的encoder每一层的featureMap经过了密集卷积块,密集卷积块使encoder的featureMap的语义级别更接近在decoder中对应的的特征图的语义级别。
节点
X
i
,
j
X^{i,j}
Xi,j的输出
x
i
,
j
x^{i,j}
xi,j这样计算:
其中
H
(
)
H( )
H()是卷积运算,
u
(
)
u()
u()是上采样操作,
[
]
[ ]
[]是拼接操作。
在UNet++中,加入深度监督,是模型能以两种模式运行:
每一个语义级别
X
0
,
1
X^{0,1}
X0,1,
X
0
,
2
X^{0,2}
X0,2,
X
0
,
3
,
X^{0,3},
X0,3,X^{0,4}$的损失都相同,均为交叉熵损失和Dice损失的结合:
X 0 , 1 X^{0,1} X0,1, X 0 , 2 X^{0,2} X0,2, X 0 , 3 , X^{0,3}, X0,3,X^{0,4}$四个节点之后均添加了 1 × 1 1 \times 1 1×1卷积(即预测头部),可以同时参与优化,即Deep supervision。其中N是batchsize, Y b Y_b Yb是第b张图像的标签, Y ^ b \hat{Y}_b Y^b是第b张图像的预测结果。
数据集
实验数据
生成质量
为了满足对更精确的医学图像分割的需求,本文提出了UNet ++。重新设计的跳跃路径旨在减小编码器和解码器子网的特征图之间的语义鸿沟,方便优化器优化。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。