当前位置:   article > 正文

了解图像分割的深度学习技术(2019年语义分割论文综述)_fully connected conditional random fields 出自哪篇论文

fully connected conditional random fields 出自哪篇论文

论文名称:Understanding Deep Learning Techniques for Image Segmentation
论文链接:https://arxiv.org/abs/1907.06119
感想:这篇文献综述梳理了图像分割绝大部分的方法技术,很适合想要全面了解图像分割这一技术方向的读者。因为我也是初学者,用翻译软件辅助阅读的过程中有很多地方也很迷糊,没有弄明白,但是整体阅读下来收获还是很多的,想到了好几个idea,并且在对处理图像分割的实际问题也稍微有了一个整体的把握。

文章目录

摘要

  机器学习社区已经被大量基于深度学习的方法所淹没。各种类型的深度神经网络如卷积神经网络、循环网络、对抗网络、自动编码器等,有效地解决了在无约束环境下对目标进行检测、定位、识别和分割等具有挑战性的计算机视觉任务。虽然在目标检测或识别领域已经有了大量的分析研究,但在图像分割技术方面也出现了许多新的深度学习技术。本文从分析的角度探讨了图像分割的各种深度学习技术。这项工作的主要目标是提供在图像分割领域有重大意义的主要技术的直观理解。从一些传统的图像分割方法出发,阐述了深度学习对图像分割领域的影响。之后,对大多数主要的分割算法都在逻辑上进行了分类,并有专门的段落介绍它们的独特贡献。有了足够多的直观解释,读者就有望提高对这些过程内部动态的可视化能力。

1 介绍

  图像分割可以定义为一种特定的图像处理技术,用于将一个图像分割成两个或多个有意义的区域。图像分割也可以看作是定义图像中不同语义实体之间边界的过程。从更专业的角度来看,图像分割是一个为图像中的每个像素分配一个标签的过程,使得具有相同标签的像素在某种视觉或语义属性上相互连接(图1:语义图像分割(来自mapvistas数据集的样本[155])。
图1
  图像分割包含了计算机视觉中大量精细相关的问题。最经典版本的语义分割是A review on deep learning techniques applied to semantic segmentation.。在语义分割中,每个像素都被归为一个预定义的类集合,这样,属于同一类的像素就属于图像中唯一的语义实体。值得注意的是,所讨论的语义不仅取决于数据,而且还取决于需要解决的问题。例如,对于行人检测系统,人的整个身体应该属于同一段,而对于动作识别系统,可能需要将不同的身体部位分割成不同的类别。其他形式的图像分割关注于一个场景中最重要的对象。由此产生了一类特殊的问题,称为显著性检测Salient object detection: A survey。此领域的其他变体可能是前景背景分离问题。在许多系统中,如图像检索或可视化问题回答,通常需要计算对象的数量。特定于实例的分割解决了这个问题。实例特定的分割通常与对象检测系统相结合,以检测和分割场景中同一个对象的多个实例Instance-aware semantic segmentation via multi-task network cascades. 。时间空间分割也是一个具有挑战性的领域,有着广泛的应用前景。在目标跟踪场景中,像素级分类不仅是在空间域内进行的,而且是跨时间的。在交通分析或监控的其他应用中,需要进行运动分割来分析运动对象的路径。在语义层次较低的分割领域,过度分割也是一种常见的方法,将图像分割成极小的区域以保证边界的一致性,代价是产生大量的假边缘。过分割算法常与区域合并技术相结合进行图像分割。甚至简单的颜色或纹理分割也可以用于各种场景。分割算法的另一个重要区别是需要来自用户的交互。虽然有一个完全自动化的系统是可取的,但是来自用户的一点交互可以在很大程度上提高分割的质量。这尤其适用于处理复杂场景或我们没有足够的数据来训练系统的情况。分割算法在现实世界中有许多应用。在医学图像处理中A survey on deep learning in medical image analysis.,我们还需要定位各种异常,如动脉瘤Interactive segmentation of abdominal aortic aneurysms in cta images、肿瘤The multimodal brain tumor image segmentation benchmark (brats).、恶性因素,如黑色素瘤检测Comparison of segmentation methods for melanoma diagnosis in dermoscopy images.或手术期间的特定器官Real-time visual servoing for laparoscopic surgery. controlling robot motion with color image
segmentation.
。另一个重要的细分领域是监视。许多问题,如行人检测 Pedestrian detection in crowded scenes. ,交通监控Image segmentation in video sequences:A probabilistic approach. 需要分割特定的对象,如人或车。其他领域包括卫星图像High spatial resolution satellite imagery, dem derivatives, and image segmentation for the detection of mass wasting processes. Satellite imagery segmentation: a region growing approach. 国防制导系统Automatic target segmentation by locally adaptive image thresholding.,取证如面部An unsupervised color image segmentation algorithm for face detection applications.,虹膜Video-based noncooperative iris image segmentation.和指纹Segmentation of fingerprint images using the directional image.识别。一般的传统方法如直方图阈值化[195]、混合化[193,87]特征空间聚类[40]、基于区域的方法[59]、边缘检测方法[184]、模糊方法[39]、基于熵的方法[47]、神经网络(Hopfield神经网络[35]、自组织映射[27]、基于物理的方法[158]等。在这方面被广泛使用。放不动连接了需要就下原文去找吧 然而,这种基于特征的方法有一个共同的瓶颈,即它们依赖于领域专家提取的特征的质量。一般情况下,人们在进行图像分割时,一定会遗漏一些潜在的或抽象的特征。另一方面,深度学习通常会解决自动特性学习的问题。在这方面,计算机视觉中最常见的技术之一很快就被引入了,它被称为卷积神经网络[110],它通过反向传播学习一组级联的卷积核[182]。从那时起,它已经显著地改进了诸如分层训练[13]、改正线性激活[153]、批处理规范化[84]、辅助分类器[52]、阿托罗斯卷积[211]、跳过连接[78]、更好的优化技术[97]等。与此同时,也出现了大量新型的图像分割技术。各种这样的技术从流行的网络如AlexNet[104]、卷积自编码器[141]、递归神经网络[143]、残差网络[78]等中得到了启发。

2 动机

关于图像分割相关的传统技术已有许多综述和研究[61,160]。其中一些专注于应用领域[107,123,185],而另一些专注于特定类型的算法[20,19,59]。随着深度学习技术的到来,各种新的图像分割算法层出不穷。早期的研究[219]显示了基于深度学习方法的潜力。最近有更多的研究[68],这些研究涵盖了许多方法,并根据报告的性能对它们进行了比较。Garcia等人[66]的工作列出了各种基于深度学习的分割技术。他们将各种先进网络在应对现代挑战时的表现制成表格。这些资源对于理解这个领域的当前状态非常有用。虽然知道可用的方法对于开发产品是非常有用的,但是,作为一个研究人员,要为这个领域做出贡献,就需要了解这些方法的底层机制,从而使他们更有信心。在目前的工作中,我们的主要动机是回答这个问题,为什么这些方法是按照它们的方式设计的。了解现代技术的机制将使解决新挑战和开发更好的算法变得更容易。我们的方法仔细分析了每种方法,以了解它们为什么在所做的事情上成功,以及为什么在某些问题上失败。听上去很诱人有没有 了解这种方法的优点和缺点,可以启动新的设计,从而获得优点的好处并克服缺点。我们推荐Alberto Garcia-Garcia[66]的作品,以获得使用深度学习的一些最佳图像分割技术的概述,而我们的重点是了解这些技术在各种挑战中为何、何时以及如何发挥作用。

2.1 贡献

这篇论文的设计方式使新的研究人员获得了最大的收益。在深度学习时代之前,一些传统的技术已经被讨论来支持框架。逐渐地,人们讨论了影响深度学习开始的各种因素,以便读者对机器学习目前的发展方向有一个很好的了解。在随后的章节中,主要的深度学习算法以一种通用的方式进行了简要描述,以便在读者的头脑中建立一个更清晰的过程概念。随后讨论的图像分割算法被归为过去几年在该领域中的主要算法家族。所有主要方法背后的概念都是用一种非常简单的语言和最少的复杂数学来解释的。几乎所有对应于主要网络的图都是使用如图2所示的公共表示格式绘制的。
图2
已经讨论过的各种方法都有不同的体系结构表示。统一表示的方案允许用户了解网络之间的基本相似性和差异性。最后,讨论了主要的应用领域,以帮助新研究人员追踪他们选择的领域。

3 深度学习对图像分割的影响

深度学习算法(如卷积神经网络或深度自编码)的发展不仅影响了典型的任务(如对象分类),而且在其他相关任务(如对象检测、定位、跟踪或本例中的图像分割)中也很有效。

3.1 卷积分割的有效性

作为一种操作,卷积可以简单地定义为这样一种函数,它执行内核权值与输入值之间的乘积和,同时在较大的图像上对较小的内核进行卷积。对于一个典型的具有k个通道的图像,我们可以将一个较小尺寸的核与沿x和y方向的k个通道进行卷积,以获得一个二维矩阵格式的输出。可以观察到,在训练了一个典型的CNN之后,卷积核往往会生成针对对象某些特征的激活图[214]。考虑到激活的本质,它可以被看作是对象特定特征的分割掩码。因此,生成特定需求分割的关键已经嵌入到这个输出激活矩阵中。大部分的图像分割算法都是利用CNNs的这一特性,根据需要生成分割掩码来解决这一问题。如下图3所示,较早的层捕获局部特征,如轮廓或对象的一小部分。在后面的图层中,会激活更多的全局特征,例如场、人或天空。从这个图中还可以注意到,与后面的层相比,前面的层显示出更尖锐的激活。
图3

3.2 更大更复杂数据集的影响

深度学习给图像分割领域带来的第二个冲击是大量的数据集、挑战和竞争。这些因素促使世界各地的研究人员提出各种最先进的技术,以实现跨领域的细分。表1中提供了许多此类数据集的列表。
表1

4 使用深度学习的图像分割

如前所述,卷积在生成语义激活图时是非常有效的,因为语义激活图的组成部分本质上构成了各种语义。已经实现了各种方法来利用这些内部激活来分割图像。表2总结了主要的基于深度学习的分割算法,并简要描述了它们的主要贡献。
主要基于深度学习的分割算法综述。缩写:S:监督,W:弱监督,U:无监督,I:交互,P:部分监督,SO:单目标优化,MO:多目标优化,AD:对抗学习,SM:语义分割,CL:类特定分割,IN:实例分割,RNN:递归模块,E-D:编解码器体系结构
表2

4.1 Convolutional Neural Networks(卷积神经网络)

卷积神经网络是计算机视觉中最常用的方法之一,为了更好地完成分割任务,它采用了许多简单的改进。

4.1.1 全卷积层

分类任务通常需要以类数上的概率分布形式的线性输出。为了将二维激活图的体积转换成线性层,它们通常被展平。扁平的形状允许完全连接的网络执行以获得概率分布。然而,这种重构会丢失图像中像素之间的空间关系。在完全卷积神经网络(FCN)[130]中,最后卷积块的输出直接用于像素级分类。FCNs首先在PASCAL VOC 2011分割数据集[54]上实现,像素精度为90.3%,平均IOU为62.7%。避免完全连接线性层的另一种方法是使用全局平均池化将一组二维激活映射转换为一组标量。由于这些集合标量被连接到输出层,因此对应于每个类的权重可用于对前几层中对应的激活映射执行加权求和。这个过程称为全局平均池(GAP)[121]可以直接用于各种训练网络,如残差网络,以找到可用于像素级分割的对象特定激活区。这种算法的主要问题是由于中间下采样操作而导致的锐度损失。下采样是卷积神经网络中增加核感知面积的常用操作。它的意思是,当激活映射在下采样层中减小时,在它们上面卷积的核实际上对应于原始图像中更大的区域。但是,它在处理过程中减小了图像大小,当采样到原始大小时,图像大小会失去锐度。已经实施了许多方法来处理这个问题。对于全卷积模型,可以使用前几层的跳跃连接来获得更清晰的激活版本,从中可以划出更细的片段(参见图4)。
图4
另一项工作显示了如何使用高维核来捕获FCN模型的全局信息,从而创建了更好的分割掩码[165]。分割算法也可以看作是边界检测技术。从这个角度来看,卷积特征也非常有用[139]。虽然早期的图层可以提供精细的细节,但后期的图层更关注较粗的边界。

深度掩膜和锐度掩膜:DeepMask[166]是Facebook人工智能研究(FAIR)一个与图像分割相关的项目的名字。它展示了与FCN模型相同的思想流派,只是模型能够执行多任务(参见图5)。图5
它有两个主要分支来共享特征表示。其中一个为中心对象创建像素级分类或概率掩码,第二个分支生成与对象识别精度相对应的分数。该网络与16步的滑动窗口相结合,在图像的不同位置创建对象片段,而分数有助于识别哪些片段是好的。SharpMask[167]对网络进行了进一步的升级,在SharpMask[167]中,来自每一层的概率掩膜以自上而下的方式进行组合,在每个步骤中使用卷积细化来生成高分辨率掩膜(见图6)。
图6
sharpmask的平均召回率为39.3,高于deepmask,后者在MS-COCO分割数据集上的平均召回率为36.6。

4.1.2 区域推荐网络

从图像分割开始发展的另一个相似的方向是对象定位。这样的任务涉及到在图像中定位特定对象。此类问题的预期输出通常是与查询对象对应的一组边界框。虽然严格地说,这些算法中的一些并没有解决图像分割问题,但是它们的方法与这个领域是相关的。

(RCNN)基于区域的卷积神经网络 CNNs的引入在计算机视觉领域提出了许多新的问题。其中一个主要问题是像AlexNet这样的网络是否可以被扩展以检测多个对象的存在。基于区域的CNN[70]或更常见的R-CNN使用选择性搜索技术来提出可能的目标区域,并在裁剪窗口上执行分类,以验证基于输出概率分布的合理定位。选择性搜索技术[198,200]分析各种方面,如纹理、颜色或强度,以将像素聚集到对象中。与这些分割相对应的边界框通过分类网络来列出一些最敏感的框。最后,用简单的线性回归网络可以得到更贴合的坐标。这项技术的主要缺点是它的计算成本。网络需要为每个边界框命题计算一个前向传播。跨所有框共享计算的问题是,框的大小不同,因此无法实现大小一致的特征。在改进的Fast R-CNN[69]中,提出了ROI(感兴趣区域)池,其中感兴趣区域被动态地池化以获得固定大小的特征输出。此后,网络主要被候选区域建议的选择性搜索技术所限制。在faster RCNN[175]中,不依赖于外部特征,而是使用中间激活映射来提出边界框,从而加快特征提取过程。边界框代表对象的位置,但它们不提供像素级分割。faster R-CNN网络被扩展为Mask R-CNN[76],其并行分支执行像素级对象特定的二进制分类以提供准确的分割。使用Mask RCNN在COCO[122]测试图像的平均精度为35.7。RCNN算法家族如图7所示。
图7
区域推荐网络经常与其他网络相结合[118,44]以给出实例级分割。RCNN在HyperNet[99]的名字下进一步改进,使用了特征抽取器的多层特征。区域推荐网络也已经实现,例如特定的分割。如前所述,像RCNN这样的方法的目标检测能力通常与分割模型相结合,以便为同一对象的不同实例生成不同的掩码[43]。

4.1.3 DeepLab

虽然像素级分割是有效的,但两个矛盾的问题仍然影响着性能。首先,较小的内核大小无法捕获上下文信息。在分类问题中,这是通过使用池层来处理的,池层相对于原始图像增加了内核的感知区域。但在分割中,会降低分割输出的清晰度。由于可训练参数的数量显著增加,较大内核的替代使用往往较慢。为了解决这个问题,DeepLab[30,32]系列算法演示了各种方法的使用,如atrus卷积[211]、空间池金字塔[77]和完全连接的条件随机场[100],以高效地执行图像分割。DeepLab算法能够在PASCAL VOC 2012数据集上获得79.7的平均值[54]。

Atrous/Dilated Convolution(空洞卷积) 任何一层卷积核的大小决定了网络的感知反应区域。当较小的内核提取局部信息时,较大的内核试图关注更多的上下文信息。然而,较大的内核通常带有更多的参数。例如,要有6×6的感知区域,必须有36个神经元。为了减少CNN中参数的数量,通过像池化这样的技术,在更高层增加了感受区域。池化层减少了图像的大小。当一个图像由一个2×2的核(步长为2)池化时,图像的大小减少了25%。核的面积为3×3相当于原始图像中较大的6×6的感受区域。然而,与之前不同的是,卷积核只需要18个神经元(每层9个)。在分割的情况下,池会产生新的问题。图像尺寸的减小会导致生成的分割图像的清晰度损失,因为缩小后的映射会缩放到图像尺寸。为了同时处理这两个问题,空洞卷积起着关键的作用。空洞卷积在不增加参数数目的情况下增加视野。如图8所示,膨胀系数为1的3×3核可以作用于图像中5×5的区域。图8
核的每一行和每一列都有三个神经元,它们与图像中的对应值相乘,对应值由1的膨胀因子分离。通过这种方式,核可以跨越更大的区域,同时保持较低的神经元数量,并保持图像的清晰度。除了DeepLab算法,空洞卷积[34]也被用于基于自动编码器的体系结构。

Spatial Pyramid Pooling(空间金字塔池化) R-CNN引入了空间金字塔池化[77],其中ROI池化显示了使用多尺度区域进行对象定位的好处。然而,在DeepLab中,为了改变视野或感受区域,空洞卷积优先于合并层。为了模拟ROI池化的效果,将多个具有不同膨胀度的空洞卷积分支组合在一起,利用多尺度特性进行图像分割。

Fully connected conditional random field(CRF条件随机场): 条件随机场是一种无向判别概率图模型,常用于各种序列学习问题。与离散分类器不同,在对样本进行分类时,它会考虑其他相邻样本的标签。图像分割可以看作是一个像素分类序列。像素的标签不仅依赖于其自身的值,还依赖于相邻像素的值。这种概率图形模型的使用通常用于图像分割领域,因此它值得专门一节(第4.1.4节)。

4.1.4 利用像素间相关性改进CNN分割

使用概率图形模型,如马尔可夫随机场(MRF)或条件随机场(CRF)进行图像分割,即使不包括基于CNN的特征提取器,也有其自身的发展。CRF或MRF的主要特征是具有一元分量和二元分量的能量函数。公式(1)
非深度学习方法侧重于建立有效的二元势函数,如利用长程依赖关系、设计高阶势函数和探索语义标签的上下文;基于深度学习的方法侧重于产生强的一元势函数,并使用简单的二元成分来提高性能。crf通常以两种方式与基于深度学习的方法相结合。一个作为单独的后处理模块,另一个作为端到端网络(如深度解析网络[128]或空间传播网络[126])中的可训练模块。

利用CRFs改进全卷积网络 最早开始这种边界优化范例的实现之一是[101]的工作。随着全卷积网络用于图像分割的引入,为图像中的对象绘制粗糙分割是非常可行的。然而,获得更清晰的分割仍然是个问题。在[29]的工作中,输出像素级预测被用作完全连接CRF的一元势。对于图像中的每对像素i和j,二元势定义为:公式(2)
这里 μ(xi,xj) = 1 如果 xi ≠ xj 则为 0 ,且w1,w2是给定的核的权重。表达式使用两个高斯核。第一种是双边核,它依赖于RGB通道中的像素位置(pi,pj)及其对应的值的大小。第二个核仅依赖于像素位置。σα、σβ和σγ控制高斯核的尺度。这种二元势能函数设计背后的直觉是,确保RGB通道中强度相似的邻近像素被分类在同一类下。这个模型后来也被包括在一个叫做DeepLab的流行网络中(参见第4.1.3节)。在不同版本的DeepLab算法中,CRF的使用能够显著提高Pascal 2012数据集上的平均IOU(在某些情况下高达4%)。

CRF as RNN 尽管CRF对于任何基于深度学习的语义图像分割体系结构来说都是一个有用的后处理模块[101],但其主要缺点之一是不能用作端到端体系结构的一部分。在标准CRF模型中,二元势可以用加权高斯和来表示。然而,由于精确极小化是困难的,CRF分布的平均场近似被认为是用一个更简单的形式来表示分布,这个简单的形式只是独立边缘分布的乘积。这种自然形式的平均场近似不适合反向传播。在[221]的工作中,这个步骤被一组卷积运算所代替,该卷积运算在循环管道上迭代,直到达到收敛。正如他们在工作中所报告的,与BoxSup的71.0和DeepLab的72.7相比,使用建议的方法获得了74.7 mIOU。操作顺序能最容易解释,如下:

  1. 初始化:一元位势上的SoftMax操作可以给我们提供要处理的初始分布。
  2. 消息传递:使用两个高斯核、一个空间核和一个双边核进行卷积。与CRF的实际实现类似,为了有效地计算全连通CRF,在构建超自面体网格时也会发生splatting和slicing。这一块真的很迷惑
  3. 加权滤波器输出:用1×1核与所需信道数卷积,滤波器输出可以加权和求和。通过反向传播可以很容易地学习权重。
  4. 相容性变换:考虑一个相容性函数来跟踪不同标签之间的不确定性,一个简单的1×1卷积(输入和输出通道数相同)就足以模拟这种情况。与指定相同惩罚的potts模型不同,这里可以学习兼容性函数,因此是一个更好的选择。真的太迷惑了
  5. 增加一元势:这可以通过从一元势的相容性变换中减去惩罚来实现
  6. 规范化:输出可以用另一个简单的softmax函数规范化。
    我一定好好滚过去读原文

这一块参考的文献:
1、Krähenbühl, P., and Koltun, V. Efficient inference in fully connected crfs with gaussian edge potentials. In Advances in neural information processing systems (2011), pp. 109–117.
2、Zheng, S., Jayasumana, S., Romera-Paredes, B., Vineet, V., Su, Z., Du, D., Huang, C., and Torr, P. H. Conditional random fields as recurrent neural networks. In Proceedings of the IEEE international conference on computer vision (2015), pp. 1529–1537.

Incorporating higher order dependencies(合并高阶依赖项) 另一个端到端网络受CRFs的启发,将高阶关系合并到一个深层网络中。在深度解析网络中,使用一系列特殊的卷积和池化来增强来自标准VGG类的特征提取块(但池化较少)的像素级预测。首先,通过在特征映射的不同位置上实现大的非共享卷积核的局部卷积,获得与平移相关的、对长距离相关性建模的特征。与标准CRF类似,空间卷积基于局部标签上下文惩罚概率映射。最后,使用块最小池化(block min pooling)在深度上执行像素最小池化(pixel wise min pooling),以接受惩罚最小的预测。类似地,在文献[126]的工作中,提出了一个行/列传播模型来计算图像上的全局二元关系。从稀疏变换矩阵中提取一个稠密的相似矩阵,根据像素的相似性对粗略预测的标签进行重新分类。

4.1.5 多尺度网络

自然场景图像分割的一个主要问题是,感兴趣的对象的大小是非常不可预测的,因为在现实世界中,对象可能大小不同,对象可能看起来更大或更小,这取决于对象和相机的位置。CNN的性质决定了精细的小尺度特征在早期层中被捕获,而当一个特征在网络的深度上移动时,这些特征对于更大的对象更加具体。例如,场景中的一辆微型车由于像池化或下采样这样的操作,被捕获到更高层的可能性要小得多。从不同尺度的特征图中提取信息以创建不确定图像中对象大小的分割通常是有益的。多尺度自动编码器模型[33]考虑激活不同分辨率以提供图像分割输出。

PSPNet 金字塔场景解析网络[220]是建立在基于FCN的像素级分类网络基础上的。来自ResNet-101网络的地物图被转换为不同分辨率的激活,这些激活的地物图经过多尺度池化层,然后向上采样并与原始地物图连接进行分割(见图10)。
图10
利用辅助分类器进一步优化了ResNet等深度网络的学习过程。不同类型的池化模块集中在激活映射的不同区域。1×1,2×2,3×3,6×6等大小的池化核分别在激活图的不同区域寻找,形成空间池化金字塔。在ImageNet场景解析挑战中,PSPNet的平均IoU为57.21,而FCN为44.80, SegNet为40.79。

RefneNet 使用来自CNN最后一层的特性可以为对象分割生成软边界。在带空洞卷积的DeepLab算法中回避了这个问题。RefineNet[120]采用了另一种方法,它细化中间激活图,并将其分级连接起来,以结合多尺度激活,同时防止清晰度损失。该网络由ResNet的每个块和单独RefineNet模块组成。每个RefineNet模块由三个主要块组成,分别是残差卷积单元(Residual convolution unit, RCU)、多分辨率融合(multi-resolution fusion, MRF)和链式残差池化(chained Residual pooling, CRP)(见图11)。图11
RCU块由一个自适应卷积集组成,该卷积集对分割问题的预训练权值进行微调。MRF层使用卷积和上采样层融合不同分辨率的激活来创建一个更高分辨率的映射。最后,在CRP层中,多个大小的内核被用于激活以从大图像区域捕获背景上下文。RefineNet在Person-Part数据集上进行了测试,它获得了68.6的IOU,而DeepLab-v2的IOU为64.9,两者都使用了ResNet-101作为特征提取器。

4.2 Convolutional autoencoders(卷积自编码器)

最后一小节讨论用于执行像素级分类以处理图像分割问题的判别模型。另一种思路是从自动编码器中获得灵感。传统上,自动编码器用于从输入样本中提取特征,同时试图保留大部分原始信息。一种将输入表示从原始输入编码为可能较低维的中间表示的编码器和一种试图从中间表示重建原始输入的解码器。损失是根据原始输入图像和重建输出图像之间的差异来计算的。生成解码器的部分经常被修改并用于图像分割。与传统的自动编码器不同,在分割过程中,损失是根据重建的像素级类分布和期望的像素级类分布之间的差异来计算的。与RCNN或DeepLab算法的分类方法相比,这种分割方法更像是一种生成过程。这种方法的问题在于防止在编码过程中过度提取图像。这种方法的主要好处是能够产生更清晰的边界,而复杂程度要低得多。与分类方法不同,解码器的生成特性可以学习基于提取的特征创建精细的边界。影响这些算法的主要问题是提取级别。人们已经看到,如果不进行适当的修改,缩小特征映射大小会在重建过程中造成不一致。在卷积神经网络的范例中,编码基本上是一系列卷积和池化层或跨步卷积。然而,重建可能会很棘手。从低维特征解码的常用技术是转置卷积或上采样层。与常规卷积特征提取方法相比,使用基于自动编码器的方法的主要优点之一是可以自由选择输入大小。通过巧妙地使用下采样和上采样操作,可以输出与输入图像具有相同分辨率的像素级概率。这一优点使得具有多尺度特征转化的编码器-解码器体系结构在输入大小不是预先确定的并且需要与输入大小相同的输出的网络中变得无处不在。

Transposed Convolution(转置卷积) 转置卷积(也称为分数步卷积)被引入来逆转传统卷积操作的影响[156,53]。它通常被称为反褶积。然而,在信号处理中定义的反褶积与转置卷积在基本公式上是不同的,尽管它们有效地解决了相同的问题。在卷积运算中,输入的大小根据内核的填充量和跨距而变化。如图12所示,步长为2所产生的激活量是步长为1的一半。图12
为了使转置卷积起作用,填充和步幅的控制方式应使大小变化相反。这是通过扩大输入空间来实现的。注意,与空洞卷积不同,空洞卷积的内核被放大,这里的输入空间被放大。

Unpooling(上采样) 另一种减小激活大小的方法是通过池化层。步长为2的2×2池化层将图像的高度和宽度减少了2倍。在这样的池化层中,像素的2×2邻域被压缩为单个像素。不同类型的池化以不同的方式执行压缩。最大池化考虑4个像素中的最大激活值,而平均池取平均值。相应的上采样层将单个像素解压缩到2×2像素的邻域,以使图像的高度和宽度加倍。

4.2.1 Skip Connections(跳跃连接)

卷积神经网络中经常使用线性跳跃连接来改善大量层的梯度消失[78]。随着网络深度的增加,激活映射趋向于关注越来越多的抽象特征。跳跃连接已经被证明是非常有效的,它可以将不同层次的特征组合在一起,生成清晰的分割图。

U-NET 2015年提出的U-Net体系结构,被证明对诸如神经元结构分割、放射照相和细胞追踪挑战等各种问题相当有效[177]。该网络的特点是具有一系列卷积和最大池化的编码器。解码层包含镜像卷积序列和转置卷积序列。如前所述,它表现为一个传统的自动编码器。以前有人提到过抽象层次对图像分割质量的影响。为了考虑不同层次的抽象,U-Net实现跳跃连接,以将未压缩的激活从编码块复制到解码块之间的镜像对应块,如图13所示。图13
U-Net的特征抽取器也可以升级,以提供更好的分割图。绰号为“The 100 layers Tiramisu”[88]的网络应用了U-Net的概念,使用了基于密集网络的特征抽取器。其他现代变化包括胶囊网络的使用[183]以及局部约束路由[108]。U-Net被选为ISBI细胞跟踪挑战赛的获胜者。在PhC-U373数据集中,平均IoU为0.9203,而第二好的为0.83。在DIC-HeLa数据集中,平均IoU为0.7756,明显好于次优方法(仅为0.46)。

4.2.2 Forwarding pooling indices(前向传播池化索引)

由于各种原因,最大池一直是减少激活映射大小的最常用技术。激活表示图像区域对特定核的响应。在最大池化中,通过仅考虑在该区域内获得的最大响应,将像素区域压缩为单个值。如果典型的自动编码器在编码阶段将像素的2×2邻域压缩为单个像素,则解码器必须将像素压缩为2×2的相似尺寸。通过前向传播池化索引,网络在执行最大池时基本上记住4个像素中最大值的位置。与最大值相对应的索引被传播到解码器(参见图14),以便在反池化操作的同时,可以将来自单个像素的值复制到下一层中2×2区域中的相应位置[215]。图14
其余三个位置的值在随后的卷积层中计算。如果在不知道池化索引的情况下将值复制到随机位置,则会出现分类不一致,尤其是在边界区域。

SegNet SegNet算法[9]于2015年推出,以在复杂的室内和室外图像上与FCN网络竞争。该体系结构由5个编码块和5个解码块组成。编码块遵循VGG-16网络特征抽取器的结构。每个块是一个多重卷积、批处理规范化和ReLU层的序列。每个编码块以存储索引的最大池层结束。每个解码块以使用保存的池索引的反池化层开始(参见图15)。来自编码器中第i块的最大池层的索引被传播到解码器中第(L-i+1)块的最大反池化层,其中L是每个编码器和解码器中块的总数。SegNet架构的mIoU为60.10,而DeepLab LargeFOV为53.88,FCN为49.83,Deconvnet为59.77。

4.3 Adversarial Models(对抗模式)

到目前为止,我们已经看到了像FCN,DeepMask,DeepLab这样的纯粹区分模型,它主要为类的每个像素生成一个概率分布。此外,自动编码器将分割视为生成过程,但最后一层通常连接到像素级softmax分类器。对抗学习框架从不同的角度来处理优化问题。生成性对抗网络(GANs)作为一种具有显著性能的生成性网络,得到了广泛的应用。对抗学习框架主要由两个网络组成:生成网络和判别网络。生成器G尝试使用名为pz(z)的噪声输入先验分布从训练数据集中生成图像。网络G(z;θG)表示由权重为θG的神经网络表示的可微函数。鉴别器网络试图正确地猜测输入数据是来自训练数据分布(pdata(x))还是由生成器G生成。鉴别器的目标是更好地捕捉假图像,而生成器则试图更好地愚弄鉴别器,从而在生成更好输出的过程中。整个优化过程可以写成一个最小-最大问题,如下所示:公式(3)
本文还从对抗学习的角度探讨了分割问题。分割网络被视为生成每个类的分割掩模的生成器,而鉴别器网络试图预测一组掩模是来自地面真值还是来自生成器的输出[133]。该过程的示意图如图20所示。图20
此外,条件GANs被用于执行图像到图像的翻译[86]。该框架可用于图像的语义边界与输出分割图不必要重合的图像分割问题,例如,在创建建筑物的框架示意图的情况下。

4.4 Sequential Models(序列模型)

到目前为止,几乎所有讨论的技术都涉及到语义图像分割。另一类分割问题,即实例级分割需要稍有不同的方法。与语义图像分割不同,这里将同一对象的所有实例分割为不同的类。这种类型的分割问题大多是作为一种学习来处理的,即给出一系列的对象段作为输出。因此,序列模型在此类问题中发挥了作用。一些常用的主要体系结构是卷积LSTMs、递归网络、基于注意的模型等。

4.4.1 Recurrent Models(递归模型)

传统的LSTM网络采用全连接权值对连续输入的长、短期记忆进行建模。但它们无法捕捉图像的空间信息。此外,图像的全连接权值在很大程度上增加了计算量。在卷积 LSTM[176]中,这些权重被卷积层所代替。卷积LSTMs已经在一些工作中用于实例级分割。通常它们被用作对象分割网络的后缀。像LSTM这样的递归模型的目的是在序列输出的不同时间戳中选择对象的每个实例。该方法已在FCN和U-NET等对象分割框架下实现[28]。

4.4.2 Attention Models(注意力模型)

卷积LSTMs可以在不同的时间戳上选择不同的对象实例,而注意力模型则可以更好地控制单个实体的局部过程。控制注意力的一种简单方法是空间抑制[176]。空间抑制网络被设计用来学习一个偏差参数,该参数将先前检测到的分割从未来的激活中切断。随着专用注意模块和外部存储器的引入,注意模型得到了进一步的发展。在文献[174]中,将实例分割网络划分为4个模块。首先,外部内存提供前面所有步骤中的对象边界细节。其次,边界框网络尝试预测对象的下一实例的位置,并为第三模块(即分割模块)输出图像的子区域。分割模块类似于前面讨论的卷积自动编码器模型。第四个模块根据预测的分割是否符合对象的实例来评分。当分数低于用户定义的阈值时,网络终止。

4.5 Weakly Supervised or Unsupervised Models(弱监督或无监督模型)

神经网络通常采用反向传播等算法进行训练,其中参数w根据其局部偏导数(相对于使用损失函数f获得的误差值E)进行更新。公式(4)
损失函数通常用目标值和预测值之间的距离来表示。但在许多情况下,图像分割需要使用没有标注的数据。这促使了无监督图像分割技术的发展。实现这一目标的直接方法之一是使用在具有类似样本和基本事实的其他较大数据集上预先训练的网络,并在特征地图上使用聚类算法(如K-means)。然而,这种半监督技术对于具有唯一样本空间分布的数据样本是低效的。另一个缺点是网络被训练成在与测试数据仍然不同的输入分布上执行。这不允许网络充分发挥其潜力。在完全无监督分割算法中,关键问题是建立一个能够测量分割或像素簇质量的损失函数。由于这些限制,当涉及到弱监督或无监督的方法时,文献数量相对较少。

4.5.1 Weakly supervised algorithms(弱监督算法)

即使在缺乏适当的像素级注释的情况下,分割算法也可以利用较粗的注释(例如边界框,甚至图像级标签[161,116])来执行像素级分割。

Exploiting bounding boxes(利用边界框) 从数据标注的角度来看,与像素级分割相比,定义边界框的代价要低得多。具有边界框的数据集的可用性也比具有像素级分段的数据集大得多。边界框可以作为弱监督来生成像素级的分割图。在文献[42]的BoxSup中,分割建议是使用区域建议方法(如选择性搜索)生成的。在此基础上,采用多尺度组合分组法对候选模板进行组合,目标是选择具有最高IOU的最优组合。该分割图用于调整传统的图像分割网络,如FCN。与FCN的62.2和DeepLab-CRF的66.4相比,BoxSup在的pascal VOC2012测试集中能够获得75.1的mIOU。

4.5.2 Unsupervised Segmentation(无监督分割)

与有监督或弱监督分割不同,无监督图像分割算法的成功与否主要取决于学习机制。下面将描述一些常见的方法。

Learning multiple of objectives(学习多个目标) 无监督学习中最常见的方法之一是考虑多个目标,这些目标的设计是为了在无法获得基本事实的情况下能够很好地进行分割。一种常见的变体称为JULE或联合无监督深度表示学习,它已经在一些缺乏基于真实的样本的应用中得到了应用。JULE的基础在于训练序列模型和深度特征提取模型。该学习方法主要介绍了一种图像聚类算法。然而,它已经扩展到其他应用,如图像分割。能够执行这些类型的分割的关键目标是开发一个合适的目标函数。在JULE中,目标函数考虑了簇中样本之间的亲和力以及簇与其相邻样本之间的负亲和力。聚集聚类是在递归网络的时间戳上进行的。在[149]的工作中,JULE尝试的是图像切块,而不是整个图像样本。通过一个类似的目标函数,它能够将切块划分为预先定义的类。在这种情况下,JULE被用来为下一次迭代提供聚集聚类信息作为监督信号。

另一种学习多个目标的方法是在具有独立工作的神经网络之间进行对抗性协作[172],如单眼深度预测、估计摄像机运动、检测光流和将视频分割到静态场景和运动区域。通过竞争性协作,每个网络竞相解释属于静态或移动类的同一像素,然后这些像素又与moderator共享他们所学的概念来执行运动分割。

Using refinement modules for self supervision(使用优化模块进行自我监控) 使用其他无监督过分割技术可用于监督深层特征提取器[92]。通过强制多个约束,如特征之间的相似性、空间连续性、轴内规范化。所有这些目标都是通过反向传播优化的。空间连续性是通过使用SLIC[1]等标准算法从图像中提取超级像素来实现的,超级像素中的所有像素都必须具有相同的标签。利用两个分割图之间的差异作为监督信号来更新权值。

Other relevant unsupervised techniques for extracting semantic infor-
mation(其他相关的无监督语义信息提取技术)
没有注释的学习总是很有挑战性的,因此有很多文献提出了许多有趣的解决方案。使用CNNs来解决从图像中衍生出来的拼图问题[157]可以用来学习对象各个部分之间的语义连接。提出的上下文无关网络以一组图像块为输入,试图建立它们之间正确的空间关系。在这个过程中,它同时学习特定于对象部分的特征及其语义关系。这些基于切块的自我监控技术可以使用上下文信息进一步改进[152]。使用上下文编码器[164]还可以导出图像各个部分之间的空间和语义关系。上下文编码器基本上是,cnn训练来生成图像的任意区域,该区域受其周围信息的约束。另一个提取语义信息的例子可以在图像着色过程中找到[218]。彩色化的过程需要像素级的理解对象对应的语义边界。其他的自我监控技术可以利用视频中的运动线索来分割对象的各个部分,以便更好地理解语义[216]。该方法可以学习语义分割、人的句法分析、实例分割等任务的结构特征和连贯特征。

4.5.3 W-Net

W-Net[207]的灵感来源于之前讨论过的U-Net。W-Net体系结构由两个级联的U-Net组成。第一U-Net充当编码器,将图像转换为其分割版本,而第二U-Net尝试从第一U-Net的输出(即分割图像)重建原始图像。两个损失函数同时最小化。其中一个损失函数是由第二个U-Net给出的重建图像和输入图像之间的均方误差。第二个损失函数来自标准化切割[186]。硬标准化切割公式为:公式(5)
其中,Ak是第k个分割的像素集,V是所有像素的集,w测量两个像素之间的权重。

然而,这个函数是不可微的,因此不可能反向传播。因此,提出了一种函数的soft版本。
公式(6)
其中,p(u=Ak)表示节点u属于Ak类的概率。利用全连通条件随机场进一步细化了输出分割图。剩下的不重要的片段使用层次聚类进一步合并。

4.6 Interactive Segmentation(交互式分割)

图像分割是计算机视觉领域中最困难的挑战之一。在许多图像过于复杂、噪声大或光照条件差的场景中,用户的一点交互和引导可以显著提高分割算法的性能。即使是在深度学习范式之外,交互式分割也在蓬勃发展。然而,卷积神经网络具有强大的特征提取能力,可以在一定程度减少交互量。

4.6.1 Two stream fusion

交互式分割最直接的实现之一是具有两个并行分支,一个来自表示交互式流的图像,另一个来自图像,并将它们融合以执行分割[83]。交互输入以表示正类和负类的不同颜色点的形式出现。通过一些后处理,其中交互作用图的强度是根据与点之间的欧几里德距离计算的,我们得到两组图(每类一个),它们看起来像以点为中心的模糊voronoi单元。这些映射是按元素顺序相乘的,以获得用于交互流的图像。这两个分支由一系列的卷积和池化层组成。每个分支结束时得到的特征的Hadamard乘积被发送到融合网络,在融合网络中生成一个低分辨率的分割图。另一种方法是追随FCN的脚步,融合多尺度的特征以获得更清晰的分辨率图像。

4.6.2 Deep Extreme Cut

与Two stream fusion方法相反,deep extreme cut[138]采用单一管道从RGB图像中创建分割地图。该方法要求用户提供4个点,表示对象边界中的四个极端区域(最左、最右、最上、最下)。通过从这些点创建热图,4通道输入被送入DenseNet101网络。将最终的网络特征图传递到金字塔场景解析模块中,分析全局上下文进行最终分割。该方法在PASCAL测试集上的mIOU达到了80.3。

4.6.3 Polygon-RNN

Polygon-RNN[26]采用了一种不同于其他方法的方法。从一个典型的VGG网络的不同层中提取多尺度特征,并将其串联起来,形成一个递归网络的特征块。RNN依次提供一系列点作为表示对象轮廓的输出。本系统主要设计为交互式图像标注工具。用户可以以两种不同的方式进行交互。首先,用户必须为感兴趣的对象提供一个紧密的边界框。其次,在建立多边形后,用户可以编辑多边形中的任意点。但是,这种编辑并不用于系统的任何进一步训练,因此提供了改进系统的一个小途径。

4.7 Building more efficient networks(建立更有效的网络)

虽然很多复杂的网络具有许多奇特的模块,可以提供非常好的语义分割质量,但将这样的算法嵌入到现实系统中则是另一回事。许多其他因素,如硬件成本、实时响应等,都带来了新的挑战。效率也是创建消费者级系统的关键。

4.7.1 ENet

ENet[163]提出了一些有趣的设计选择,以创建一个具有少量参数(37万)的非常浅的分割网络。它不是像SegNet或U-Net那样的对称编码器-解码器架构,而是具有更深的编码器和更浅的解码器。不是在池化后增加通道大小,而是并行池化操作与步长为 2的卷积一起执行,以减少总体特征。为了提高学习能力,PReLU被用作ReLU的比较,以便传递函数保持动态,以便它可以模拟ReLU的作业以及所需的身份函数。这通常是ResNet中的一个重要因素,但是由于网络很浅,使用PReLU是一个更明智的选择。除此之外,使用因子化过滤器还允许使用较少数量的参数。

4.7.2 Deep Layer Cascade

Deep Layer Cascade[116]解决了几个挑战,并作出了两个重大贡献。首先,分析了不同类别像素级分割的难度。在级联网络中,较容易的分割在早期被发现,而后一层则集中在需要更精细片段的区域。其次,提出的级联层可以与Inception-ResNet-V2(IRNet)等常用网络一起使用,在一定程度上提高了速度甚至性能。IRNet的基本原理是创建一个多级管道,在每个阶段中,一定数量的像素将被分类到一个分割中。在早期阶段,最简单的像素将被分类,而不确定性较大的较难像素将进入后期阶段。在随后的阶段中,卷积将仅发生在那些在前一阶段无法分类的像素上,同时将更难的像素转发到下一阶段。通常,提出的模型分为三个阶段,每个阶段向网络添加更多的卷积模块。在分层级联的情况下,VOC12测试集的mIOU为82.7,DeepLabV2和Deep Parsing网络是最接近的竞争对手,mIOU分别为79.7和77.5。在速度方面,每秒处理23.6帧,而SegNet为14.6 fps,DeepLab-V2为7.1 fps。

4.7.3 SegFast

另一个名为SegFast[159]的最新实现能够构建一个只有60万个参数的网络,这使得一个网络可以在大约0.38秒的时间内完成前向传递,而无需GPU。该方法将深度可分离卷积的概念与SqueezeNet的fire modules相结合。SqueezeNet引入了fire modules的概念,以减少卷积权重的数量。通过深度可分卷积,参数的数量进一步下降。他们还提出了使用可分离的差分转置卷积进行解码。即使有如此多的特征减少方法,性能也相当于其他流行的网络,如SegNet。

4.7.4 Segmentation using superpixels

过分割算法[1]在基于局部信息将图像分割成小块上得到了很好的发展。使用patch分类算法,这些超混合可以转换为语义分割。然而,由于过分割过程不考虑邻域关系,因此有必要将其纳入到patch分类算法中。与像素级分类相比,执行patch分类要快得多,因为超像素的数量远小于图像中像素的数量。Farabet等人首次将CNNs用于超混合水平分类。[55]。然而,仅仅考虑没有上下文的超混合会导致错误的分类。在文献[46]的工作中,在切块分类过程中,通过考虑不同级别的邻域超像素来捕获多个级别的上下文。通过使用加权平均、最大投票或基于不确定性的方法(如dempster-shafer理论)融合不同层次上下文的切块级概率,提出了一种非常有效的分割算法。达斯等人的作品。与Farabet等人的74.56%相比,能够获得77.14%[46]的像素级精度。[55]。超混合可以用来建立有效的语义分割模型,反之亦然。相反,语义分割的标签可以用来训练网络执行过分割[197]。利用卷积特征进行过分割,同时特别注意语义边界,可以计算出像素的相似度。

5 应用

图像分割是计算机视觉领域中最常解决的问题之一。它经常被其他相关任务如目标检测、目标识别、场景解析、图像描述生成等所增强。因此,这一分支的研究发现在各种现实生活场景中有着广泛的应用。

5.1 基于内容的图像检索(CBIR)

随着internet上结构化和非结构化数据的不断增加,开发高效的信息检索系统显得尤为重要。因此,CBIR系统一直是一个利润丰厚的研究领域。许多其他相关问题,如可视化问答、基于交互式查询的图像处理、描述生成等。图像分割在许多情况下是有用的,因为它们代表了不同对象之间的空间关系[12,127]。实例级分段对于处理数值查询至关重要[217]。无监督方法[90]对于处理大量的非注释数据特别有用,这在这个工作领域非常常见。

5.2 医学影像学

图像分割的另一个主要应用领域是医疗领域。许多诊断程序都涉及到处理对应于不同类型成像源和身体不同部位的图像。一些最常见的任务类型是分割有机元素,如血管[58]、组织[91]、神经[132]等。其他类型的问题包括异常的定位,如肿瘤[224145],动脉瘤[48131]等等。显微图像[85]还需要各种各样的分割,如细胞或细胞核检测、细胞计数、细胞结构分析等。这个领域面临的主要挑战是缺乏大量的数据来应对具有挑战性的疾病,由于所涉及的成像设备类型不同,图像质量也不同。医疗程序不仅涉及到人类,也涉及到其他动植物。

5.3 目标检测

随着深度学习算法的成功,与自动目标检测相关的研究领域也出现了激增。机器人机动性[114]、自主驾驶[196]、智能运动检测[192]、跟踪系统[204]等应用。在智能机器人自主决策的帮助下,深海[190,106]或太空[181]等极为偏远的地区可以得到有效的探索。在国防等部门,无人驾驶飞行器或无人机[154]被用来探测偏远地区的异常或威胁[119]。分割算法在卫星图像的各种地理统计分析中有着重要的应用[109]。在图像或视频后期制作等领域,通常必须对各种任务执行分割,如图像抠图[115,115]、合成[24]和旋转镜[2]。

5.4 Forensics

虹膜[125,65]、指纹[94]、手指静脉[170]、牙科记录[93]等生物特征验证系统涉及各种信息区域的分割,以便进行有效的分析。

5.5 Surveillance(监视)

监视系统[147,95,89]与各种问题有关,如遮挡,照明或天气状况。此外,监视系统还可以对来自高光谱源的图像进行分析[4]。监视系统还可以扩展到各种应用,如目标跟踪[82]、搜索[3]、异常检测[173]、威胁检测[137]、交通控制[208]等。图像分割对于将感兴趣的对象与自然场景中的杂波分离起着至关重要的作用。

6 讨论与未来发展

   本文讨论了各种方法,强调了它们的主要贡献、优缺点。本文讨论了各种方法,强调了它们的主要贡献、优缺点。选择正确算法的最佳方法是首先分析影响选择的变量。
影响基于深度学习方法性能的一个重要方面是数据集和标注的可用性。在这方面,表1提供了属于不同领域的数据集的简明清单。
表1
在处理其他小规模数据集时,通常在类似域的较大数据集上预先训练网络。有时可能有大量的样本可用,但像素级分割标签可能不可用,因为创建它们是一个累赘的问题。即使在这些情况下,对网络的其他相关问题(如分类或定位)进行预训练也有助于学习一组更好的权重。
   在另一方面,必须作出的一个相关决定是在有监督、无监督或弱监督算法中进行选择。在当前的情况下,存在着大量的有监督方法,但是无监督和弱监督算法仍然远远没有达到饱和水平。这是图像分割领域的一个合理的关注点,因为数据收集可以通过许多自动化的过程来进行,但是对它们进行完美的注释需要手动操作。无监督是研究人员在构建端到端可扩展系统方面可以做出贡献的最突出领域之一,该系统可以对数据分布进行建模,确定最佳类数,并在完全无监督的域中创建精确的像素级分割图。弱监督算法也是一个要求很高的领域。收集与分类或本地化等问题对应的注释要容易得多。利用这些标注来指导图像分割也是一个很有前途的领域。
   建立用于图像分割的深度学习模型的下一个重要方面是选择合适的方法。经过预训练的分类器可以用于各种完全卷积的方法。在大多数情况下,通过将网络中不同深度的信息进行融合,可以实现多尺度的特征融合。预先训练的分类器,如VGGNet、ResNet或DenseNet,也经常用于编码器体系结构的编码器部分。这里,还可以将信息从各个编码器层传递到解码器的相应大小相似的层以获得多尺度信息。编码器-解码器结构的另一个主要优点是,如果仔细设计下采样和上采样操作,则可以生成与输入大小相同的输出。与FCN或DeepMask等简单卷积方法相比,这是一个主要的优点。这消除了对输入大小的依赖,因此使系统更具可伸缩性。这两种方法在语义分割问题中最为常见。但是,如果需要更精细级别的特定实体分割,则通常需要与与对象检测对应的其他方法相结合。利用边界框信息是解决这些问题的一种方法,而其他方法使用基于注意力的模型或递归模型为对象的每个实例提供作为片段序列的输出。
  在测量系统性能时,可以考虑两个方面。一个是速度,另一个是准确度。条件随机场是最常用的后处理模块之一,用于优化其他网络的输出。CRFs可以模拟为RNN,创建端到端可训练模块,以提供非常精确的分割图。其他细化策略包括使用过分割算法(如超级像素)或使用人类交互来指导分割算法。在速度增益方面,可以使用深度可分卷积、核分解、减少空间卷积等策略来实现网络的高度压缩。这些策略可以在很大程度上减少参数的数量,而不会使性能降低太多。最近,生成性对抗网络的受欢迎程度急剧上升。然而,它们在分割领域的应用还相当少,只有少数几种方法可以解决这个问题。考虑到他们所取得的成功,它肯定有潜力大幅度改善现有的系统。
   图像分割的未来在很大程度上取决于可用数据的质量和数量。虽然互联网上有大量的非结构化数据,但缺乏准确的标注是一个值得关注的问题。尤其是像素级的注释,如果没有人工干预,很难获得。The most ideal scenario would be to exploit the data distribution itself to analyze and extract meaningful segments that represent concepts rather than content. 这是一项极具挑战性的任务,尤其是当我们处理大量非结构化数据时。关键是将数据分布的表示映射到问题陈述的意图,这样派生的分割在某种程度上是有意义的,并且有助于系统的总体目的。

7 Conclusion(结论)

图像分割出现了一种新的基于深度学习的算法。从基于深度学习的算法的发展开始,我们已经彻底解释了与基于深度学习的图像分割相关的各种最新算法的优缺点。简单的解释使读者能够掌握最基本的概念,这些概念有助于基于深度学习的图像分割算法的成功。图中遵循的统一表示方案可以突出各种算法的异同。在今后的理论调查工作中,可以结合实证分析的方法进行探讨。

Acknowledgement

这项工作部分由项目(编号:SB/S3/EECE/054/2016,日期:2016年11月25日)提供支持,该项目由塞尔维亚(印度政府)赞助,在贾达布尔大学CSE系微处理器应用培训教育和研究中心进行。作者也要感谢审稿人的宝贵建议,这些建议有助于提高稿件的质量。

Supplementary Information (补充材料)

Image Segmenation before deep learning : A refresher

Thresholding(阈值转换法):直接的图像分割可以是基于相对于强度值的阈值为每个图像分配类标签。最早的算法之一,通常被称为Otsu的[199]方法,选择一个关于最大方差的阈值点。许多现代方法被应用于模糊逻辑[39]或非线性阈值[193]。早期的方法主要集中在二值化阈值上,而在随后的几年中也出现了多类分割。

Clustering methods(聚类方法) :像K-means[194]这样的聚类方法可以将图像聚类成多个类。这是一个非常简单的过程,对于感兴趣的对象相对于背景的对比度很高的图像,可以产生很好的效果。其他的聚类方法结合了模糊逻辑[16150]甚至多目标优化[10]。

Histogram-based methods (基于直方图的方法):基于直方图的方法[195,193]在语义分割方面提供了一个更加全局的视角。通过分析直方图的波峰和波谷,可以将图像适当地分割成若干个最佳的分割段。不像k-means这样的聚类算法,不需要事先知道聚类的数量。

Edge detection(边界检测):研究图像分割问题的另一个角度是考虑对象之间的语义边界[184]。语义图像分割与边缘检测算法有着密切的关系,其原因有很多,如图像中的单个对象往往被强度梯度发生急剧变化的边缘分割。利用边缘检测和语义分割概念的一种常见方法是基于超像素的处理[45,38]。

Region-growing methods (区域种子法):虽然基于强度的方法在图像聚类中非常有效,但它们没有考虑局部性因素。区域生长方法依赖于假设公共区域内的相邻像素具有一些共同的性质。这类方法通常从种子点开始,在语义边界内缓慢增长[59]区域是通过基于区域内方差或能量合并相邻较小区域来增长的。许多常见的算法,如Mumford Shah[151]或Snakes算法[96]这些方法的其他变体依赖于lambda连通性并基于像素强度增长。

Graph based approaches (基于图的方法):通过将像素或像素组视为节点,从而将图像转换为加权无向图,可以使用图分割算法来考虑局部性的上下文。图切割算法[186、21、22、180]可有效地用于获得分割。概率图形模型,如马尔可夫随机场(MRF)[80]可用于创建基于先验概率分布的像素标记方案。MRF试图最大化基于一组特征对像素或区域进行正确分类的概率。率图形模型,如MRF或其他类似的基于图形的方法[56]也可以看作是能量最小化问题[47]。在这方面,模拟退火[124]也可以是一个恰当的例子。这些方法可以根据图的能量来选择划分图。

Watershed transformations(分水岭变换):分水岭算法[73]假设图像的梯度为地形表面。类似于这样一个表面中的水流线,具有最高梯度的像素充当分割的轮廓。

Feature based techniques(基于特征的技术):颜色、纹理、形状、梯度等各种特征可用于训练机器学习算法,如神经网络[35、27、105]或支持向量机,以执行像素级分类。在深度学习开始之前,全连接神经网络被有效地用于语义分割。然而,完全连接的网络会对较大的图像产生巨大的内存挑战,因为每个层都伴随着O(n2)的可训练权重,其中n是每个输入图像的最终激活图的高度和权重。

A brief history of neural networks(神经网络简史)

利用McCulloch和Pitts提出的人工神经元的初始命题和感知器的后续模型,可以模拟具有可学习权重的线性模型。但线性系统的局限性很快就显现出来了,因为人们发现它们无法学习具有因变量的情况,比如在异或问题中[162]。自从引入Neocognitron(一种分层的自组织神经结构)以来,几乎十年后,多层模型才开始出现。然而,问题是扩展了基于随机梯度的多层学习的思想。这就是反向传播的概念出现的时候。通过反向传播,可见层的误差可以作为偏导数链传播到中间层的权重。引入非线性激活函数(如sigmoid单元)可以使这些中间梯度不间断地流动,并解决异或问题。虽然很明显,更深的网络提供了更好的学习能力,但它们也会导致梯度消失或爆炸[14]。这是一个很难处理的问题,特别是在序列网络中,直到长短期记忆单元[81]被提出取代传统的递归神经网络[143]。卷积神经网络[110]作为端到端分类器被引入,成为现代计算机视觉领域最重要的贡献之一。在接下来的十年里,随着辛顿提出了受限的玻尔兹曼机器(boltzmann machines)[13]和深度信念网络(deep-believe networks)[79],深度学习开始蓬勃发展。

Advancement in Hardwares (硬件的发展):触发深度学习开始的另一个重要因素是并行计算能力的可用性。早期对基于CPU的体系结构的依赖为大量浮点操作造成了瓶颈。集群是一种成本高昂的东西,因此研究在有大量资金的组织中相当本地化。但随着Nvidia开发的图形处理单元(gpu)[7]的出现,其用于访问并行计算核的底层cudapi神经学习系统得到了显著的提升。这些图形卡以更便宜的速度提供了成百上千的计算核心,这些核心被有效地构建来处理基于矩阵的操作,这是神经网络的理想选择。

Larger Datasets(更大的数据集):随着基于GPUs神经网络研究的有效性越来越广泛。但另一个重要的推动因素是新的和具有挑战性的数据集和挑战的涌入。从MNIST数据集[111]开始,数字识别成为新系统的一个常见挑战。90年代末,Yann LeCun、Yoshua Bengio和Geoffrey Hinton在加拿大高级研究院(Canadian institute of advanced research)推出了用于对象分类的自然对象CIFAR数据集[103],从而使深入学习得以继续。随着名为Imagenet的大型视觉识别挑战赛的开展,这项挑战进一步扩展到了1000类Imagenet数据库[50]的新高度。到目前为止,这一直是作为任何新的对象分类算法基准的主要挑战之一。随着人们转向更复杂的数据集,图像分割也变得具有挑战性。PASCAL-VOC图像分割[54]、ILSVRC场景分析[15]、DAVIS-Challenge[168]、Microsoft-COCO[122]等许多数据集和竞争对手的出现,也推动了图像分割的研究。

Broad categories of typical deep learning models(典型深度学习模式的大类)

随着深度学习的出现,许多有趣的神经网络被提出来解决各种挑战。

Sequential Models(序列模型): 深度网络的最早问题是递归神经网络[143]。递归网络的特点是反馈回路允许它们接受一系列输入,同时在每个时间步上携带学习到的信息。然而,在长的输入链上,可以看到信息随着时间的推移由于梯度消失而丢失。消失或爆炸梯度主要是由于偏导数的长乘法链可以将结果值推到几乎为零或很大的值,进而导致无意义或太大的权重更新[14]。解决这一问题的第一次尝试是由长-短记忆结构[81]提出的,在这种结构中,相关信息可以通过公路通道进行长距离传播,公路通道只受我的加减法的影响,因此保留梯度值。序列模型在计算机视觉中有着广泛的应用,如视频处理、实例分割等。图17示出了典型递归网络的一般和展开版本的示例。图17
Autoencoders:自多层感知器引入自联想网络[102]以来,自动编码器就一直存在。自动编码器的原理是将原始输入编码成一个潜在的表示。解码器网络试图从编码的表示重建输入。基于输入与重构输出之差的损失函数最小化,保证了中间表示中的信息损失最小。这个隐藏的表示是实际输入的压缩形式。由于它保留了输入图像的大多数定义属性,因此通常用作进一步处理的特征。自动编码器由两个主要阶段组成,即编码和解码阶段。经过训练,编码器可以很容易地用作特征提取器。解码器部分可用于生成目的。许多工作将解码器的生成特性用于各种图像分割应用[98]。下图(18)显示了具有完全连接的线性层的自动编码器的表示。图(18)
Convolutional Neural Networks (卷积神经网络):卷积神经网络[110,104]可能是计算机视觉深度学习的重要发明之一。卷积核常被用于复杂图像的特征提取。然而,设计内核并不是一件容易的事情,特别是对于像自然图像这样的复杂数据。利用卷积神经网络,基于交叉熵或均方误差等误差函数,可以通过反向传播随机初始化和迭代更新核函数。CNN中常见的其他操作有池、批处理规范化、激活、剩余连接等。池化层增加卷积核的感受野。批处理规范化[84]是指涉及跨批处理的激活规范化的泛化过程。激活函数是感知器学习的重要组成部分。自AlexNet[104]引入以来,整流线性单元(ReLU)[153]一直是选择的激活函数。ReLU(校正线性单元)提供0或1的梯度,因此,可以防止梯度消失或爆炸,还可以导致激活的稀疏性。最近,另一种有趣的梯度增强方法出现在应用残余连接中。剩余连接[78]提供了梯度流动的替代路径,该路径没有抑制梯度的操作。残差连接在许多情况下也被用来提高分割图像的质量。图19示出了卷积特征提取器和全连接分类器。图19
Generative Models (生成模型):生成模型可能是计算机视觉中深度学习的最新吸引力之一。当序列模型如长-短期记忆或门控递归单元能够生成矢量元素序列时,由于空间的复杂性,在计算机视觉中要困难得多。最近,各种方法,如变分自动编码器[98]或对抗性学习[136,71]在生成复杂图像方面变得非常有效。生成性可以非常有效地用于生成分割遮罩等任务。图20示出了通过对抗性学习来学习的生成性网络的典型示例。
图20

References

见原文

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/760312
推荐阅读
相关标签
  

闽ICP备14008679号