赞
踩
【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等
专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等
本专栏主要方便入门同学快速掌握相关知识。后续会持续把深度学习涉及知识原理分析给大家,让大家在项目实操的同时也能知识储备,知其然、知其所以然、知何由以知其所以然。
声明:部分项目为网络经典项目方便大家快速学习,后续会不断增添实战环节(比赛、论文、现实应用等)
专栏订阅:
作者发现Deep Convolutional Neural Networks (DCNNs) 能够很好的处理的图像级别的分类问题,因为它具有很好的平移不变性(空间细节信息已高度抽象),但是DCNNs很难处理像素级别的分类问题,例如姿态估计和语义分割,它们需要准确的位置信息。
DCNN应用在语义分割任务上存在两个缺陷:
分类任务具有空间不变性,图像的仿射变换不会影响最后的分类结果,而且恰恰通过仿射变换等操作(数据增广)可以增加数据量,提高模型的精度;但是像分割和检测这类问题,不具有空间不变性。
DCNNs中语义分割存在三个挑战:
DCNN中语义分割存在三个挑战:
语义分割主要面临两个问题:
首先,语义分割问题存在两大挑战:
图1 用于捕获多尺度上下文的代替体系结构
DeepLabV3的提出是为了解决多尺度下的目标分割问题。如图2所示,不同目标在图中的尺寸大小不同,这也导致模型考虑不同尺寸的分割精度。
图2 多尺度目标分割示例
具体而言,DeepLabV3取ResNet中最后一个block(ResNet的block4),并将他们级联到了一起,如图3所示。
有三个3×3卷积在这些块中,除了最后一个块,其余的模块中最后的一个卷积步长为2,类似于原来的ResNet。这么做背后的动机是,引入的stride使得更深的模块更容易捕获长距离的信息。如图3(a),整个图像的特征都可以汇聚在最后一个小分辨率的特征图中。
然而,我们发现连续的stride对语义分割是有害的,会造成细节信息的丢失(如下表)。
从表中看得出,输出步长out_stride = 8时占用更多的内存,但同时带来了更好的性能。例如图3(b)中,输出步长为out_stride = 16。这样不增加参数量和计算量的同时有效的缩小了步幅。
受到了采用不同大小网格层次结构的多重网格方法的启发,我们提出的模型在block4和block7中采用了不同的空洞率。
特别的,我们定义$ Multi_Grid = ({r_1},{r_2},{r_3}) 为 b l o c k 4 到 b l o c k 7 内三个卷积层的 u n i t r a t e s 。卷积层的最终空洞率等于 u n i t r a t e 和 c o r r e s p o n d i n g r a t e 的乘积。例如,当 为block4到block7内三个卷积层的unit rates。卷积层的最终空洞率等于unit rate和corresponding rate的乘积。例如,当 为block4到block7内三个卷积层的unitrates。卷积层的最终空洞率等于unitrate和correspondingrate的乘积。例如,当 output_stride = 16,Multi_Grid = (1,2,4) ,三个卷积就会在 b l o c k 4 有。 ,三个卷积就会在block4有。 ,三个卷积就会在block4有。 rates = 2 \cdot (1,2,4) = (2,4,8)$
上图是DeeplabV2中的ASPP,在特征顶部映射图使用了四中不同采样率的空洞卷积。我这表明以不同尺度采样时有效的,在Deeolabv3中向ASPP中添加了BN层。不同采样率的空洞卷积可以有效捕获多尺度信息,但会发现随着采样率的增加,滤波器有效权重(权重有效的应用在特征区域,而不是填充0)逐渐变小。
当output_stride=8时,加倍了采样率。所有特征通过1x1级联到一起,生成最终的分数。
ASPPModule代码:
class ASPPModule(nn.Layer): """ Atrous Spatial Pyramid Pooling. Args: aspp_ratios (tuple): The dilation rate using in ASSP module. in_channels (int): The number of input channels. out_channels (int): The number of output channels. align_corners (bool): An argument of F.interpolate. It should be set to False when the output size of feature is even, e.g. 1024x512, otherwise it is True, e.g. 769x769. use_sep_conv (bool, optional): If using separable conv in ASPP module. Default: False. image_pooling (bool, optional): If augmented with image-level features. Default: False """ def __init__(self, aspp_ratios, in_channels, out_channels, align_corners, use_sep_conv=False, image_pooling=False, data_format='NCHW'): super().__init__() self.align_corners = align_corners self.data_format = data_format self.aspp_blocks = nn.LayerList() for ratio in aspp_ratios: if use_sep_conv and ratio > 1: conv_func = layers.SeparableConvBNReLU else: conv_func = layers.ConvBNReLU block = conv_func( in_channels=in_channels, out_channels=out_channels, kernel_size=1 if ratio == 1 else 3, dilation=ratio, padding=0 if ratio == 1 else ratio, data_format=data_format) self.aspp_blocks.append(block) out_size = len(self.aspp_blocks) if image_pooling: self.global_avg_pool = nn.Sequential( nn.AdaptiveAvgPool2D( output_size=(1, 1), data_format=data_format), layers.ConvBNReLU( in_channels, out_channels, kernel_size=1, bias_attr=False, data_format=data_format)) out_size += 1 self.image_pooling = image_pooling self.conv_bn_relu = layers.ConvBNReLU( in_channels=out_channels * out_size, out_channels=out_channels, kernel_size=1, data_format=data_format) self.dropout = nn.Dropout(p=0.1) # drop rate def forward(self, x): outputs = [] if self.data_format == 'NCHW': interpolate_shape = paddle.shape(x)[2:] axis = 1 else: interpolate_shape = paddle.shape(x)[1:3] axis = -1 for block in self.aspp_blocks: y = block(x) y = F.interpolate( y, interpolate_shape, mode='bilinear', align_corners=self.align_corners, data_format=self.data_format) outputs.append(y) if self.image_pooling: img_avg = self.global_avg_pool(x) img_avg = F.interpolate( img_avg, interpolate_shape, mode='bilinear', align_corners=self.align_corners, data_format=self.data_format) outputs.append(img_avg) x = paddle.concat(outputs, axis=axis) x = self.conv_bn_relu(x) x = self.dropout(x) return x
具有不同 atrous rates 的 ASPP 能够有效的捕获多尺度信息。不过,论文发现,随着sampling rate的增加,有效filter特征权重(即有效特征区域,而不是补零区域的权重)的数量会变小,极端情况下,当空洞卷积的 rate 和 feature map 的大小一致时,$ 3~\times 3 $ 卷积会退化成 $ 1~\times 1 $ :
为了克服这个问题,并将全局上下文信息纳入模型,采用了图像级特征。具体来说,在模型的最后一个特征图采用全局平均池化,将重新生成的图像级别的特征提供给带256个滤波器(和BN)的1×1卷积,然后双线性插值将特征提升到所需的空间维度。
最后改进后的ASPP包括:
2.2.5.取消DenseCRF
CRF
CRF的全称是Conditional Random Field.它的形式如下所示:
P ( Y ∣ X ) = 1 Z ( X ) P ~ ( Y , X ) {\rm{P}}(Y|X) = \frac{1}{{Z(X)}}\tilde P(Y,X) P(Y∣X)=Z(X)1P~(Y,X)
P ~ ( Y , X ) = exp ( ∑ i w i ∗ f i ( Y , X ) ) \tilde P(Y,X) = \exp (\sum\limits_i {{w_i} * {f_i}(Y,X)} ) P~(Y,X)=exp(i∑wi∗fi(Y,X))
Z ( X ) = ∑ Y exp ( ∑ i w i ∗ f i ( Y , X ) ) Z(X) = \sum\limits_Y {\exp (\sum\limits_i {{w_i} * {f_i}(Y,X)} )} Z(X)=Y∑exp(i∑wi∗fi(Y,X))
可以看出,条件随机场在建模的时候同样需要计算联合概率,只不过这一次参与计算的有两部分随机变量——X和Y。一般来说,我们把X称作观察变量,也就是已知的变量;Y称作目标变量或者隐含变量,是我们想知道的变量。
比方说图像分割的问题,X就是图像的像素,Y就是每个像素所归属的类别。当然对于二维的图像问题还是有点复杂,那么我们用一个简单的一维问题做了例子:比方说自然语言处理中的词性标注问题,那么它的建模形式如下所示:
P
~
(
Y
,
X
)
=
exp
(
∑
i
f
1
(
X
i
,
Y
i
)
+
f
2
(
Y
i
,
Y
i
+
1
)
)
\tilde P(Y,X) = \exp (\sum\limits_i {{f_1}({X_i},{Y_i}) + {f_2}({Y_i},{Y_{i + 1}})} )
P~(Y,X)=exp(i∑f1(Xi,Yi)+f2(Yi,Yi+1))
Dense CRF
我们看过了它的模型形式,下面直接来看看模型的能量函数表达形式:
E ( x ) = ∑ i φ u ( x i ) + ∑ i < j φ p ( x i , x j ) E(x) = \sum\limits_i {{\varphi _u}({x_i}) + } \sum\limits_{i < j} {{\varphi _p}({x_i},{x_j})} E(x)=i∑φu(xi)+i<j∑φp(xi,xj)
可以看出每一个像素都有一个unary的函数,也就是说在这个特征函数里w,剩下的参数都出现在图像的像我们只考虑当前像素的类别,而暂时不考虑别的像素的类别信息。
而后面的pairwise函数里,每一个像素的类别都和其他像素计算一个energy feature。于是就有了上面的公式形式。注意这里的能量函数是所有像素点的联合能量和不是某一个像素点的能量,所以后面的pairwise项,我们有n(n-1)/2组特征,总的来说,特征数量是像素数量的平方级别,如果我们有一张100万像素的图片,那么我们就会建立4950亿组pairwise特征。正是因为这种复杂的形式,所以这个模型被称作Dense CRF。满满的全是dense啊!
关于unary函数的内容,我们可以尽情发挥,在denseCRF中我们并没有对这一部分做详细的限制。因此关于这部分我们就暂时略去不谈了,在后面的文章中我们会重新回来,挖掘unary函数的潜力。下面我们专注于解决pairwise这个大坑。
下面我们讲piarwise部分展开,其中
φ p ( x i , x j ) = μ ( x i , x j ) ∑ m = 1 K w ( m ) k ( m ) ( f i , f j ) {\varphi _p}({x_i},{x_j}) = \mu ({x_i},{x_j})\sum\limits_{m = 1}^K {{w^{(m)}}{k^{(m)}}({f_i},{f_j})} φp(xi,xj)=μ(xi,xj)m=1∑Kw(m)k(m)(fi,fj)
可以看出,pairwise函数中还是比较复杂的,我们从左往右以此介绍。
首先是$ \mu ({x_i},{x_j}) $,这一项被称作label compatibility项,简单来说这里约束了“力”传导的条件,只有相同label条件下,能量才可以相互传导。具体来说,“一个像素可能是飞机”的能量可以和“另一个像素可能是飞机”的能量相互传导,从而增加或者减少后者“可能是飞机”的能量,从而影响“可能是飞机”的概率,而“一个像素可能是飞机”的能量是不能影响“另一个像素是人”的概率的。
文章中也提到了,这个简单地一刀切似乎有点不人性。拿Pascal-VOC中的20类+背景类来说,有些类别之间的相似性是很强的,而另外一些类别则完全不相似,所以作者后面提到了一些学习相关的事情,这里我们就不再深入下去了。
加和项里面就是经典的权重*feature的套路了,其中
k ( m ) ( f i , f j ) = w ( 1 ) exp ( − ∣ p i − p j ∣ 2 2 θ α 2 − ∣ I i − I j ∣ 2 2 θ β 2 ) + w ( 2 ) exp ( − ∣ p i − p j ∣ 2 2 θ γ 2 ) k(m)({f_i},{f_j}) = {w^{(1)}}\exp ( - \frac{{{{\left| {{p_i} - {p_j}} \right|}^2}}}{{2\theta _\alpha ^2}} - \frac{{{{\left| {{I_i} - {I_j}} \right|}^2}}}{{2\theta _\beta ^2}}) + {w^{(2)}}\exp ( - \frac{{{{\left| {{p_i} - {p_j}} \right|}^2}}}{{2\theta _\gamma ^2}}) k(m)(fi,fj)=w(1)exp(−2θα2∣pi−pj∣2−2θβ2∣Ii−Ij∣2)+w(2)exp(−2θγ2∣pi−pj∣2)
这一项以特征的形式表示了不同像素之前的“亲密度”。前面我们提到了特征不同于tabular形式的factor,我们看不到表格,只能看到公式。上面的公式中,第一项被称作appearance kernel,第二项被称作smooth kernel。这里面有很多变量,我们一一来看。
appearance kernel里面的p表示像素的位置——position,我们的图像是2维的,那么position就有2维。I表示图像的像素值——Intensity,我们的图像是彩色的,那么Intensity就有3维。分式下面的两个参数无论从位置还是长相都像高斯分布中的方差,这里的含义也差不多的。
于是乎我们可以看出,如果两个像素距离近且颜色近,那么这个feature特征就会很强,反之则不强。同时分母也控制了强弱性,分母越大越难强起来。其实这一项和图像处理中的bilateral filter很像。我们相当于在一个5维的空间内寻找相近的像素对并给予它们的特征加强。
DeepLabV3 取消DenseCRF的原因
语义分割与分类不同。分类主要是识别物体,而语义分割不但要识别物体,还要找出物体的位置信息。DCNN卷积网络越深,其位置信息丢失的越严重。所以在deeplab v1/v2中用到了,全局CRF增强其位置信息。
但是在deeplabv3中,使用大采样率的3X3空洞卷积,图像边界响应无法捕捉远距离信息,会退化为1×1的卷积, 所以deeplabv3将图像级特征融合到ASPP模块中。融合图像级特征,相当于融合了其位置信息。所以就不需要最后再用CRF了。这就是用了CRF,其精度也增加的不多的原因。
在训练阶段,随机缩放输入图像(从0.5到2.0)和随机左-右翻转
DeepLabV3
class DeepLabV3(nn.Layer): """ The DeepLabV3 implementation based on PaddlePaddle. The original article refers to Liang-Chieh Chen, et, al. "Rethinking Atrous Convolution for Semantic Image Segmentation" (https://arxiv.org/pdf/1706.05587.pdf). Args: Please Refer to DeepLabV3P above. """ def __init__(self, num_classes, #分割类别数 backbone, # 主干网络 backbone_indices=(3, ), aspp_ratios=(1, 6, 12, 18), # aspp 空洞卷积率 aspp_out_channels=256, # aspp输出通道数 align_corners=False, # 是否对齐 pretrained=None): # 是否预处理 super().__init__() self.backbone = backbone #主干网络 backbone_channels = [ backbone.feat_channels[i] for i in backbone_indices ] #定义头模块 self.head = DeepLabV3Head(num_classes, backbone_indices, backbone_channels, aspp_ratios, aspp_out_channels, align_corners) self.align_corners = align_corners self.pretrained = pretrained self.init_weight() # 初始化权重 def forward(self, x): feat_list = self.backbone(x) logit_list = self.head(feat_list) return [ # 执行上采样,填充方式使用‘bilinear’ F.interpolate( logit, paddle.shape(x)[2:], mode='bilinear', align_corners=self.align_corners) for logit in logit_list ] def init_weight(self): if self.pretrained is not None: utils.load_entire_model(self, self.pretrained) # 载入预处理模型
DeepLabV3Head
class DeepLabV3Head(nn.Layer): """ The DeepLabV3Head implementation based on PaddlePaddle. Args: Please Refer to DeepLabV3PHead above. """ def __init__(self, num_classes, backbone_indices, backbone_channels, aspp_ratios, aspp_out_channels, align_corners): super().__init__() #定义ASPP模块 self.aspp = layers.ASPPModule( aspp_ratios, backbone_channels[0], aspp_out_channels, align_corners, use_sep_conv=False, image_pooling=True) #定义分类头 self.cls = nn.Conv2D( in_channels=aspp_out_channels, out_channels=num_classes, kernel_size=1) self.backbone_indices = backbone_indices def forward(self, feat_list): logit_list = [] x = feat_list[self.backbone_indices[0]] x = self.aspp(x) logit = self.cls(x) logit_list.append(logit) return logit_list
我们首先实验级联更多的空洞卷积模块。
ResNet50:
使用ResNet-50时,我们探究output_stride的影响。如表1所示。
ResNet-50 vs. ResNet-101:
用更深的模型,并改变级联模块的数量。
Multi-grid:
采用Multi-gird策略,在ResNet-101使用变体残差模块。block4和其他添加进来的block中,主分支中的三个卷积都使用空洞卷积,采样率设置Multi-gird策略。
实验观察到的:
Inference strategy on val set:
模型训练阶段使用output_stride=16,在推理过程中应用output_stride=8以获得更精细的特征图。
Atrous Spatial Pyramid Pooling:
DeepLab V3的ASPP模块与DeepLab V2的主要区别在于,增加了BN层,增加了图像级别的特征。表5记录了ASPP模块block4使用multi-grid策略和图像级特征后的效果。
Inference strategy on val set:
推断期间使用output_stride = 8,采用多尺度输入和左-右翻转数据增强。
总的来说,本文从DeepLab系列出发,分别介绍了各版本的Deeplab的动机,并给予动机进行改进的创新点和策略。然后针对DeeplabV3详细的解释了该模型从问题的提出到实验结果相关内容。从解决问题的角度出发,DeeplabV3主要解决了物体的多尺度问题,在DCNN问题上并没有进行深入讨论。DCNN的多次下采样会造成特征图分辨率变小,导致预测精度降低,边界信息丢失,该问题于DeeplabV3+中进行了深入的讨论与解决。从实验结果来看,DeeplabV3表现出相较于以前版本更好的性能。
[1] Rethinking Atrous Convolution for Semantic Image Segmentation
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。