当前位置:   article > 正文

深度学习中的各种卷积_深度学习卷积公式

深度学习卷积公式

深度学习中的各种卷积

一、卷积与互相关

信号处理、图像处理和其它工程/科学领域,卷积都是一种使用广泛的技术。在深度学习领域,卷积神经网络(CNN)这种模型架构就得名于这种技术。但是,深度学习领域的卷积本质上是信号/图像处理领域内的互相关(cross-correlation)。这两种操作之间存在细微的差别。

无需太过深入细节,我们就能看到这个差别。在信号/图像处理领域,卷积的定义是: ( f ∗ g ) ( t ) = ∫ − ∞ ∞ f ( τ ) g ( t − τ ) (f*g)(t)=\int_{-\infty}^{\infty}f(\tau)g(t-\tau) (fg)(t)=f(τ)g(tτ)

其定义是两个函数中一个函数经过反转和位移后再相乘得到的积的积分。下面的可视化展示了这一思想:

信号处理中的卷积。过滤器 g 经过反转,然后再沿水平轴滑动。在每一个位置,我们都计算 f 和反转后的 g 之间相交区域的面积。这个相交区域的面积就是特定位置出的卷积值。

这里,函数 g 是过滤器。它被反转后再沿水平轴滑动。在每一个位置,我们都计算 f 和反转后的 g 之间相交区域的面积。这个相交区域的面积就是特定位置出的卷积值。

另一方面,互相关是两个函数之间的滑动点积或滑动内积。互相关中的过滤器不经过反转,而是直接滑过函数 f。f 与 g 之间的交叉区域即是互相关。下图展示了卷积与互相关之间的差异。

信号处理中卷积与互相关之间的差异

在深度学习中,卷积中的过滤器不经过反转。严格来说,这是互相关。我们本质上是执行逐元素乘法和加法。但在深度学习中,直接将其称之为卷积更加方便。这没什么问题,因为过滤器的权重是在训练阶段学习到的。如果上面例子中的反转函数 g 是正确的函数,那么经过训练后,学习得到的过滤器看起来就会像是反转后的函数 g。因此,在训练之前,没必要像在真正的卷积中那样首先反转过滤器。

二、深度学习中的卷积

进行卷积的目的是从输入中提取有用的特征。在图像处理中,可以选择用于卷积的各种不同滤波器。每种类型的过滤器有助于从输入图像中提取不同的方面或特征,例如,水平/垂直/对角线边缘。类似地,在卷积神经网络中,使用在训练期间自动学习权重的滤波器通过卷积提取不同的特征。然后将所有这些提取的特征“组合”以做出决定。

进行卷积有一些优点,例如权重共享和平移不变量。卷积还将像素的空间关系考虑在内。这些对于许多计算机视觉任务尤其有用,因为这些任务通常涉及识别某些组件与其他组件具有某些空间关系的对象(例如,狗的身体通常链接到头部,四条腿和尾部)。

1、卷积:单通道版本

在深度学习中,卷积是元素乘法和加法。 对于具有1个通道的图像,卷积如下图所示。 这里的滤波器是一个3 x 3矩阵,元素为[[0,1,2],[2,2,0],[0,1,2]]。 过滤器在输入端滑动。 在每个位置,它都在进行元素乘法和加法。 每个滑动位置最终都有一个数字。 最终输出是3 x 3矩阵。 (注意,在这个例子中,stride = 1和padding = 0。这些概念将在下面的算术部分中描述。

2.、卷积:多渠道版本

在许多应用程序中,我们处理的是具有多个通道的图像。 典型的例子是RGB图像。

多通道数据的另一个例子是卷积神经网络中的层。 卷积网络层通常由多个通道(通常为数百个通道)组成。 每个通道描述前一层的不同方面。 我们如何在不同深度的层之间进行过渡? 我们如何将深度为n的图层转换为深度为m的后续图层?

在描述该过程之前,我们想澄清一些术语:层,通道,特征映射,过滤器和内核。 从层次结构的角度来看,层和过滤器的概念处于同一级别,而通道和内核位于下一级。 频道和功能图是一回事。 图层可以有多个通道(或要素图):如果输入是RGB图像,则输入图层有3个通道。 “通道”通常用于描述“层”的结构。 类似地,“内核”用于描述“过滤器”的结构。

“层”(“过滤器”)和“通道”(“内核”)之间的区别。
过滤器和内核之间的区别有点棘手。 有时,它们可以互换使用,这可能会产生混淆。 从本质上讲,这两个术语有微妙的区别。 “内核”指的是2D重量阵列。 术语“过滤器”用于堆叠在一起的多个内核的3D结构。 对于2D过滤器,过滤器与内核相同。 但是对于3D过滤器和深度学习中的大多数卷积,过滤器是内核的集合。 每个内核都是独一无二的,强调输入通道的不同方面。

有了这些概念,多通道卷积如下。 将每个内核应用到前一层的输入通道上以生成一个输出通道。 这是一个内核方面的过程。 我们为所有内核重复这样的过程以生成多个通道。 然后将这些通道中的每一个加在一起以形成单个输出通道。 下图应该使过程更清晰。

这里输入层是一个5 x 5 x 3矩阵,有3个通道。 滤波器是3 x 3 x 3矩阵。 首先,过滤器中的每个内核分别应用于输入层中的三个通道。 执行三次卷积,产生3个尺寸为3×3的通道。

多通道2D卷积的第一步:滤波器中的每个内核分别应用于输入层中的三个通道。

然后将这三个通道相加(元素加法)以形成一个单通道(3 x 3 x 1)。 该通道是使用滤波器(3×3×3矩阵)对输入层(5×5×3矩阵)进行卷积的结果。

用于多通道的2D卷积的第二步:然后将这三个通道相加在一起(逐元素加法)以形成一个单通道。

同样,我们可以将此过程视为通过输入层滑动3D滤镜矩阵。 请注意,输入层和过滤器具有相同的深度(通道编号=内核编号)。 3D滤镜仅在图像的2个方向,高度和宽度上移动(这就是为什么这种操作被称为2D卷积,尽管3D滤镜用于处理3D体积数据)。 在每个滑动位置,我们执行逐元素乘法和加法,这导致单个数字。 在下面所示的示例中,滑动在水平5个位置和垂直5个位置执行。 总的来说,我们得到一个单一输出通道。

考虑2D卷积的另一种方法:将过程视为通过输入层滑动3D滤镜矩阵。 请注意,输入层和过滤器具有相同的深度(通道编号=内核编号)。 3D滤镜仅在图像的2个方向,高度和宽度上移动(这就是为什么这种操作被称为2D卷积,尽管3D滤镜用于处理3D体积数据)。 输出是单层矩阵。

现在我们可以看到如何在不同深度的层之间进行过渡。 假设输入层有Din通道,我们希望输出层有Dout通道。 我们需要做的是只将Dout过滤器应用于输入层。 每个过滤器都有Din内核。 每个过滤器提供一个输出通道。 应用Dout过滤器后,我们有Dout通道,然后可以将它们堆叠在一起形成输出层。

标准2D卷积。 使用Dout过滤器将具有深度Din的一个层映射到具有深度Dout的另一个层。

3、3D 卷积

在上一节的解释中,我们看到我们实际上是对一个 3D 体积执行卷积。但通常而言,我们仍在深度学习中称之为 2D 卷积。这是在 3D 体积数据上的 2D 卷积。过滤器深度与输入层深度一样。这个 3D 过滤器仅沿两个方向移动(图像的高和宽)。这种操作的输出是一张 2D 图像(仅有一个通道)。

很自然,3D 卷积确实存在。这是 2D 卷积的泛化。下面就是 3D 卷积,其过滤器深度小于输入层深度(核大小<通道大小)。因此,3D 过滤器可以在所有三个方向(图像的高度、宽度、通道)上移动。在每个位置,逐元素的乘法和加法都会提供一个数值。因为过滤器是滑过一个 3D 空间,所以输出数值也按 3D 空间排布。也就是说输出是一个 3D 数据。

在 3D 卷积中,3D 过滤器可以在所有三个方向(图像的高度、宽度、通道)上移动。在每个位置,逐元素的乘法和加法都会提供一个数值。因为过滤器是滑过一个 3D 空间,所以输出数值也按 3D 空间排布。也就是说输出是一个 3D 数据。

与 2D 卷积(编码了 2D 域中目标的空间关系)类似,3D 卷积可以描述 3D 空间中目标的空间关系。对某些应用(比如生物医学影像中的 3D 分割/重构)而言,这样的 3D 关系很重要,比如在 CT 和 MRI 中,血管之类的目标会在 3D 空间中蜿蜒曲折。

4、1 x 1卷积

由于我们在前面的3D卷积部分讨论了深度操作,让我们看看另一个有趣的操作,即1 x 1卷积。

您可能想知道为什么这有用。 我们只是将一个数字乘以输入层中的每个数字吗? 是和否。对于只有一个通道的图层,操作非常简单。 在那里,我们将每个元素乘以一个数字。

如果输入层有多个通道,事情会变得很有趣。 下图说明了1 x 1卷积如何适用于尺寸为H x W x D的输入层。在滤波器尺寸为1 x 1 x D的1 x 1卷积之后,输出通道的尺寸为H x W x 1.如果我们 应用N这样的1 x 1卷积然后将结果连接在一起,我们可以得到一个尺寸为H x W x N的输出层。

1 x 1卷积,滤波器大小为1 x 1 x D

最初,在网络网络文件中提出了1 x 1卷积。然后,他们在Google Inception论文中被高度使用。 1 x 1卷积的一些优点是:

  • 降低维度以实现高效计算
  • 高效的低维嵌入或特征池
  • 卷积后再次应用非线性

在上图中可以观察到前两个优点。在1 x 1卷积之后,我们显着地减小了尺寸。假设原始输入有200个通道,1 x 1卷积会将这些通道(功能)嵌入到单个通道中。第三个优点是在1 x 1卷积之后,可以添加诸如ReLU的非线性激活。非线性允许网络学习更复杂的功能。

这些优势在Google的Inception论文中描述为:

“上述模块的一个大问题,至少在这种天真的形式中,即使是一个适度数量的5x5卷积,在具有大量滤波器的卷积层之上也会非常昂贵。
这导致了所提出的架构的第二个想法:明智地应用尺寸减小和投影,否则计算要求将增加太多。这是基于嵌入的成功:即使是低维嵌入也可能包含大量关于相对较大图像补丁的信息…也就是说,在昂贵的3 x 3和5 x 5卷积之前,使用1 x 1卷数来计算减少量。除了用作还原之外,它们还包括使用经过整流的线性激活,这使它们具有双重用途。“
关于1 x 1卷积的一个有趣的观点来自Yann LeCun“在卷积网中,没有”完全连接的层“这样的东西。只有1x1卷积内核和完整连接ta的卷积层ble.”

5、卷积算术

我们现在知道如何处理卷积的深度。让我们继续讨论如何处理其他两个方向(高度和宽度)的卷积,以及重要的卷积算法。

以下是一些术语:

内核大小:内核将在上一节中讨论。内核大小定义了卷积的视图。
Stride:它在滑动图像时定义内核的步长。步幅为1意味着内核逐像素地滑过图像。步幅为2表示内核通过每步移动2个像素(即跳过1个像素)滑过图像。我们可以使用步幅(> = 2)对图像进行下采样。
填充:填充定义如何处理图像的边框。填充卷积(Tensorflow中的“相同”填充)将保持空间输出维度等于输入图像,如果需要,通过在输入边界周围填充0。另一方面,未填充卷积(Tensorflow中的“有效”填充)仅对输入图像的像素执行卷积,而不在输入边界周围添加0。输出大小小于输入大小。
下图描述了使用内核大小为3,步幅为1和填充为1的2D卷积。

6、转置卷积(去卷积)

对于很多网络架构的很多应用而言,我们往往需要进行与普通卷积方向相反的转换,即我们希望执行上采样。例子包括生成高分辨率图像以及将低维特征图映射到高维空间,比如在自动编码器或形义分割中。(在后者的例子中,形义分割首先会提取编码器中的特征图,然后在解码器中恢复原来的图像大小,使其可以分类原始图像中的每个像素。)

实现上采样的传统方法是应用插值方案或人工创建规则。而神经网络等现代架构则倾向于让网络自己自动学习合适的变换,无需人类干预。为了做到这一点,我们可以使用转置卷积。

转置卷积在文献中也被称为去卷积或 fractionally strided convolution。但是,需要指出「去卷积(deconvolution)」这个名称并不是很合适,因为转置卷积并非信号/图像处理领域定义的那种真正的去卷积。从技术上讲,信号处理中的去卷积是卷积运算的逆运算。但这里却不是这种运算。因此,某些作者强烈反对将转置卷积称为去卷积。人们称之为去卷积主要是因为这样说很简单。后面我们会介绍为什么将这种运算称为转置卷积更自然且更合适。

我们一直都可以使用直接的卷积实现转置卷积。对于下图的例子,我们在一个 2×2 的输入(周围加了 2×2 的单位步长的零填充)上应用一个 3×3 核的转置卷积。上采样输出的大小是 4×4。

将 2×2 的输入上采样成 4×4 的输出

有趣的是,通过应用各种填充和步长,我们可以将同样的 2×2 输入图像映射到不同的图像尺寸。下面,转置卷积被用在了同一张 2×2 输入上(输入之间插入了一个零,并且周围加了 2×2 的单位步长的零填充),所得输出的大小是 5×5。

将 2×2 的输入上采样成 5×5 的输出

观察上述例子中的转置卷积能帮助我们构建起一些直观认识。但为了泛化其应用,了解其可以如何通过计算机的矩阵乘法实现是有益的。从这一点上我们也可以看到为何「转置卷积」才是合适的名称。

在卷积中,我们定义 C 为卷积核,Large 为输入图像,Small 为输出图像。经过卷积(矩阵乘法)后,我们将大图像下采样为小图像。这种矩阵乘法的卷积的实现遵照:C x Large = Small。

下面的例子展示了这种运算的工作方式。它将输入平展为 16×1 的矩阵,并将卷积核转换为一个稀疏矩阵(4×16)。然后,在稀疏矩阵和平展的输入之间使用矩阵乘法。之后,再将所得到的矩阵(4×1)转换为 2×2 的输出。

卷积的矩阵乘法:将 Large 输入图像(4×4)转换为 Small 输出图像(2×2)

现在,如果我们在等式的两边都乘上矩阵的转置 CT,并借助「一个矩阵与其转置矩阵的乘法得到一个单位矩阵」这一性质,那么我们就能得到公式 CT x Small = Large,如下图所示。

卷积的矩阵乘法:将 Small 输入图像(2×2)转换为 Large 输出图像(4×4)

这里可以看到,我们执行了从小图像到大图像的上采样。这正是我们想要实现的目标。现在你就知道“转置卷积”这个名字的由来了。

转置矩阵的算术解释可参阅:https://arxiv.org/abs/1603.07285

7、扩张卷积(Atrous 卷积)

扩张卷积由这两篇引入:

  • https://arxiv.org/abs/1412.7062;
  • https://arxiv.org/abs/1511.07122

这是一个标准的离散卷积: ( F ∗ k ) ( p ) = Σ s + t = p F ( s ) k ( t ) (F*k)(p)=\Sigma_{s+t=p}F(s)k(t) (Fk)(p)=Σs+t=pF(s)k(t)

扩张卷积如下: ( F ∗ l k ) ( p ) = Σ s + l t = p F ( s ) k ( t ) (F*_lk)(p)=\Sigma_{s+lt=p}F(s)k(t) (Flk)(p)=Σs+lt=pF(s)k(t)

当 l=1 时,扩张卷积会变得和标准卷积一样。

扩张卷积

直观而言,扩张卷积就是通过在核元素之间插入空格来使核「膨胀」。新增的参数 l(扩张率)表示我们希望将核加宽的程度。具体实现可能各不相同,但通常是在核元素之间插入 l-1 个空格。下面展示了 l = 1, 2, 4 时的核大小。

扩张卷积的感受野。我们基本上无需添加额外的成本就能有较大的感受野。

在这张图像中,3×3 的红点表示经过卷积后,输出图像是 3×3 像素。尽管所有这三个扩张卷积的输出都是同一尺寸,但模型观察到的感受野有很大的不同。l=1 时感受野为 3×3,l=2 时为 7×7。l=3 时,感受野的大小就增加到了 15×15。有趣的是,与这些操作相关的参数的数量是相等的。我们「观察」更大的感受野不会有额外的成本。因此,扩张卷积可用于廉价地增大输出单元的感受野,而不会增大其核大小,这在多个扩张卷积彼此堆叠时尤其有效。

论文《Multi-scale context aggregation by dilated convolutions》的作者用多个扩张卷积层构建了一个网络,其中扩张率 l 每层都按指数增大。由此,有效的感受野大小随层而指数增长,而参数的数量仅线性增长。

这篇论文中扩张卷积的作用是系统性地聚合多个比例的形境信息,而不丢失分辨率。这篇论文表明其提出的模块能够提升那时候(2016 年)的当前最佳形义分割系统的准确度。请参阅那篇论文了解更多信息。

8、可分卷积

某些神经网络架构使用了可分卷积,比如 MobileNets。可分卷积有空间可分卷积和深度可分卷积。

8.1、空间可分卷积

空间可分卷积操作的是图像的 2D 空间维度,即高和宽。从概念上看,空间可分卷积是将一个卷积分解为两个单独的运算。对于下面的示例,3×3 的 Sobel 核被分成了一个 3×1 核和一个 1×3 核。

Sobel 核可分为一个 3x1 和一个 1x3 核

在卷积中,3×3 核直接与图像卷积。在空间可分卷积中,3×1 核首先与图像卷积,然后再应用 1×3 核。这样,执行同样的操作时仅需 6 个参数,而不是 9 个。

此外,使用空间可分卷积时所需的矩阵乘法也更少。给一个具体的例子,5×5 图像与 3×3 核的卷积(步幅=1,填充=0)要求在 3 个位置水平地扫描核(还有 3 个垂直的位置)。总共就是 9 个位置,表示为下图中的点。在每个位置,会应用 9 次逐元素乘法。总共就是 9×9=81 次乘法。

具有 1 个通道的标准卷积

另一方面,对于空间可分卷积,我们首先在 5×5 的图像上应用一个 3×1 的过滤器。我们可以在水平 5 个位置和垂直 3 个位置扫描这样的核。总共就是 5×3=15 个位置,表示为下图中的点。在每个位置,会应用 3 次逐元素乘法。总共就是 15×3=45 次乘法。现在我们得到了一个 3×5 的矩阵。这个矩阵再与一个 1×3 核卷积,即在水平 3 个位置和垂直 3 个位置扫描这个矩阵。对于这 9 个位置中的每一个,应用 3 次逐元素乘法。这一步需要 9×3=27 次乘法。因此,总体而言,空间可分卷积需要 45+27=72 次乘法,少于普通卷积。

具有 1 个通道的空间可分卷积

我们稍微推广一下上面的例子。假设我们现在将卷积应用于一张 N×N 的图像上,卷积核为 m×m,步幅为 1,填充为 0。传统卷积需要 (N-2) x (N-2) x m x m 次乘法,空间可分卷积需要 N x (N-2) x m + (N-2) x (N-2) x m = (2N-2) x (N-2) x m 次乘法。空间可分卷积与标准卷积的计算成本比为: 2 m + 2 m ( N − 2 ) \frac{2}{m}+\frac{2}{m(N-2)} m2+m(N2)2

因为图像尺寸 N 远大于过滤器大小(N>>m),所以这个比就变成了 2/m。也就是说,在这种渐进情况(N>>m)下,当过滤器大小为 3×3 时,空间可分卷积的计算成本是标准卷积的 2/3。过滤器大小为 5×5 时这一数值是 2/5;过滤器大小为 7×7 时则为 2/7。

尽管空间可分卷积能节省成本,但深度学习却很少使用它。一大主要原因是并非所有的核都能分成两个更小的核。如果我们用空间可分卷积替代所有的传统卷积,那么我们就限制了自己在训练过程中搜索所有可能的核。这样得到的训练结果可能是次优的。

8.2、深度可分卷积

现在来看深度可分卷积,这在深度学习领域要常用得多(比如 MobileNet 和 Xception)。深度可分卷积包含两个步骤:深度卷积核 1×1 卷积。

在描述这些步骤之前,有必要回顾一下我们之前介绍的 2D 卷积核 1×1 卷积。首先快速回顾标准的 2D 卷积。举一个具体例子,假设输入层的大小是 7×7×3(高×宽×通道),而过滤器的大小是 3×3×3。经过与一个过滤器的 2D 卷积之后,输出层的大小是 5×5×1(仅有一个通道)。

用于创建仅有 1 层的输出的标准 2D 卷积,使用 1 个过滤器

一般来说,两个神经网络层之间会应用多个过滤器。假设我们这里有 128 个过滤器。在应用了这 128 个 2D 卷积之后,我们有 128 个 5×5×1 的输出映射图(map)。然后我们将这些映射图堆叠成大小为 5×5×128 的单层。通过这种操作,我们可将输入层(7×7×3)转换成输出层(5×5×128)。空间维度(即高度和宽度)会变小,而深度会增大。

用于创建有 128 层的输出的标准 2D 卷积,要使用 128 个过滤器

现在使用深度可分卷积,看看我们如何实现同样的变换。

首先,我们将深度卷积应用于输入层。但我们不使用 2D 卷积中大小为 3×3×3 的单个过滤器,而是分开使用 3 个核。每个过滤器的大小为 3×3×1。每个核与输入层的一个通道卷积(仅一个通道,而非所有通道!)。每个这样的卷积都能提供大小为 5×5×1 的映射图。然后我们将这些映射图堆叠在一起,创建一个 5×5×3 的图像。经过这个操作之后,我们得到大小为 5×5×3 的输出。现在我们可以降低空间维度了,但深度还是和之前一样。

深度可分卷积——第一步:我们不使用 2D 卷积中大小为 3×3×3 的单个过滤器,而是分开使用 3 个核。每个过滤器的大小为 3×3×1。每个核与输入层的一个通道卷积(仅一个通道,而非所有通道!)。每个这样的卷积都能提供大小为 5×5×1 的映射图。然后我们将这些映射图堆叠在一起,创建一个 5×5×3 的图像。经过这个操作之后,我们得到大小为 5×5×3 的输出。

在深度可分卷积的第二步,为了扩展深度,我们应用一个核大小为 1×1×3 的 1×1 卷积。将 5×5×3 的输入图像与每个 1×1×3 的核卷积,可得到大小为 5×5×1 的映射图。

因此,在应用了 128 个 1×1 卷积之后,我们得到大小为 5×5×128 的层。

深度可分卷积——第二步:应用多个 1×1 卷积来修改深度。

通过这两个步骤,深度可分卷积也会将输入层(7×7×3)变换到输出层(5×5×128)。

下图展示了深度可分卷积的整个过程。

深度可分卷积的整个过程

所以,深度可分卷积有何优势呢?效率!相比于 2D 卷积,深度可分卷积所需的操作要少得多。

回忆一下我们的 2D 卷积例子的计算成本。有 128 个 3×3×3 个核移动了 5×5 次,也就是 128 x 3 x 3 x 3 x 5 x 5 = 86400 次乘法。

可分卷积又如何呢?在第一个深度卷积步骤,有 3 个 3×3×1 核移动 5×5 次,也就是 3x3x3x1x5x5 = 675 次乘法。在 1×1 卷积的第二步,有 128 个 1×1×3 核移动 5×5 次,即 128 x 1 x 1 x 3 x 5 x 5 = 9600 次乘法。因此,深度可分卷积共有 675 + 9600 = 10275 次乘法。这样的成本大概仅有 2D 卷积的 12%!

所以,对于任意尺寸的图像,如果我们应用深度可分卷积,我们可以节省多少时间?让我们泛化以上例子。现在,对于大小为 H×W×D 的输入图像,如果使用 Nc 个大小为 h×h×D 的核执行 2D 卷积(步幅为 1,填充为 0,其中 h 是偶数)。为了将输入层(H×W×D)变换到输出层((H-h+1)x (W-h+1) x Nc),所需的总乘法次数为: N c ∗ h ∗ h ∗ D ∗ ( H − h + 1 ) ∗ ( W − h + 1 ) N_c*h*h*D*(H-h+1)*(W-h+1) NchhD(Hh+1)(Wh+1)

另一方面,对于同样的变换,深度可分卷积所需的乘法次数为: D ∗ h ∗ h ∗ 1 ∗ ( H − h + 1 ) ∗ ( W − h + 1 ) + N c ∗ 1 ∗ 1 ∗ D ∗ ( H − h + 1 ) ∗ ( W − h + 1 ) = ( h ∗ h + N c ) ∗ D ∗ ( H − h + 1 ) ∗ ( W − h + 1 ) D*h*h*1*(H-h+1)*(W-h+1)+N_c*1*1*D*(H-h+1)*(W-h+1)=(h*h+N_c)*D*(H-h+1)*(W-h+1) Dhh1(Hh+1)(Wh+1)+Nc11D(Hh+1)(Wh+1)=(hh+Nc)D(Hh+1)(Wh+1)

则深度可分卷积与 2D 卷积所需的乘法次数比为: 1 N c + 1 h 2 \frac{1}{N_c}+\frac{1}{h^2} Nc1+h21

现代大多数架构的输出层通常都有很多通道,可达数百甚至上千。对于这样的层(Nc >> h),则上式可约简为 1 / h²。基于此,如果使用 3×3 过滤器,则 2D 卷积所需的乘法次数是深度可分卷积的 9 倍。如果使用 5×5 过滤器,则 2D 卷积所需的乘法次数是深度可分卷积的 25 倍。

使用深度可分卷积有什么坏处吗?当然是有的。深度可分卷积会降低卷积中参数的数量。因此,对于较小的模型而言,如果用深度可分卷积替代 2D 卷积,模型的能力可能会显著下降。因此,得到的模型可能是次优的。但是,如果使用得当,深度可分卷积能在不降低你的模型性能的前提下帮助你实现效率提升。

9、扁平化的卷积

扁平卷积在文章“Flattened convolutional neural networks for feedforward acceleration”中介绍。 直观地说,这个想法是应用过滤器分离。 我们将这个标准滤波器分成3个1D滤波器,而不是应用一个标准卷积滤波器将输入层映射到输出层。 这种想法与上述空间可分卷积中的类似,其中空间滤波器由两个秩-1滤波器近似。

应该注意的是,如果标准卷积滤波器是秩1滤波器,则这种滤波器总是可以分成三个1D滤波器的交叉积。但这是一个强大的条件,标准滤波器的内在等级高于实际中的一个。正如文章中指出的那样“随着分类问题的难度增加,解决问题需要更多的主要组件…深度网络中的学习过滤器具有分布的特征值,并且直接将分离应用于过滤器导致显着的信息丢失。 ”

为了缓解这种问题,本文限制了接收领域的连接,以便模型可以在训练时学习一维分离的过滤器。该论文声称,通过在3D空间中跨越所有方向的连续1D滤波器序列组成的扁平网络训练提供与标准卷积网络相当的性能,由于学习参数的显着减少,计算成本更低。

10、分组卷积

AlexNet 论文(https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)在 2012 年引入了分组卷积。实现分组卷积的主要原因是让网络训练可在 2 个内存有限(每个 GPU 有 1.5 GB 内存)的 GPU 上进行。下面的 AlexNet 表明在大多数层中都有两个分开的卷积路径。这是在两个 GPU 上执行模型并行化(当然如果可以使用更多 GPU,还能执行多 GPU 并行化)。

上图来自 AlexNet 论文

这里我们介绍一下分组卷积的工作方式。首先,典型的 2D 卷积的步骤如下图所示。在这个例子中,通过应用 128 个大小为 3×3×3 的过滤器将输入层(7×7×3)变换到输出层(5×5×128)。推广而言,即通过应用 Dout 个大小为 h x w x Din 的核将输入层(Hin x Win x Din)变换到输出层(Hout x Wout x Dout)。

标准的 2D 卷积

在分组卷积中,过滤器会被分为不同的组。每一组都负责特定深度的典型 2D 卷积。下面的例子能让你更清楚地理解。

具有两个过滤器分组的分组卷积

上图展示了具有两个过滤器分组的分组卷积。在每个过滤器分组中,每个过滤器的深度仅有名义上的 2D 卷积的一半。它们的深度是 Din/2。每个过滤器分组包含 Dout/2 个过滤器。第一个过滤器分组(红色)与输入层的前一半([:, :, 0:Din/2])卷积,而第二个过滤器分组(橙色)与输入层的后一半([:, :, Din/2:Din])卷积。因此,每个过滤器分组都会创建 Dout/2 个通道。整体而言,两个分组会创建 2×Dout/2 = Dout 个通道。然后我们将这些通道堆叠在一起,得到有 Dout 个通道的输出层。

10.1、分组卷积与深度卷积

你可能会注意到分组卷积与深度可分卷积中使用的深度卷积之间存在一些联系和差异。如果过滤器分组的数量与输入层通道的数量相同,则每个过滤器的深度都为 Din/Din=1。这样的过滤器深度就与深度卷积中的一样了。

另一方面,现在每个过滤器分组都包含 Dout/Din 个过滤器。整体而言,输出层的深度为 Dout。这不同于深度卷积的情况——深度卷积并不会改变层的深度。在深度可分卷积中,层的深度之后通过 1×1 卷积进行扩展。

分组卷积有几个优点。

第一个优点是高效训练。因为卷积被分成了多个路径,每个路径都可由不同的 GPU 分开处理,所以模型可以并行方式在多个 GPU 上进行训练。相比于在单个 GPU 上完成所有任务,这样的在多个 GPU 上的模型并行化能让网络在每个步骤处理更多图像。人们一般认为模型并行化比数据并行化更好。后者是将数据集分成多个批次,然后分开训练每一批。但是,当批量大小变得过小时,我们本质上是执行随机梯度下降,而非批梯度下降。这会造成更慢,有时候更差的收敛结果。

在训练非常深的神经网络时,分组卷积会非常重要,正如在 ResNeXt 中那样。

上图来自 ResNeXt 论文,https://arxiv.org/abs/1611.05431

第二个优点是模型会更高效,即模型参数会随过滤器分组数的增大而减少。在之前的例子中,完整的标准 2D 卷积有 h x w x Din x Dout 个参数。具有 2 个过滤器分组的分组卷积有 (h x w x Din/2 x Dout/2) x 2 个参数。参数数量减少了一半。

第三个优点有些让人惊讶。分组卷积也许能提供比标准完整 2D 卷积更好的模型。另一篇出色的博客已经解释了这一点:https://blog.yani.io/filter-group-tutorial。这里简要总结一下。

原因和稀疏过滤器的关系有关。下图是相邻层过滤器的相关性。其中的关系是稀疏的。

在 CIFAR10 上训练的一个 Network-in-Network 模型中相邻层的过滤器的相关性矩阵。高度相关的过滤器对更明亮,而相关性更低的过滤器则更暗。图片来自:https://blog.yani.io/filter-group-tutorial

分组矩阵的相关性映射图又如何?

在 CIFAR10 上训练的一个 Network-in-Network 模型中相邻层的过滤器的相关性,动图分别展示了有 1、2、4、8、16 个过滤器分组的情况。图片来自 https://blog.yani.io/filter-group-tutorial

上图是当用 1、2、4、8、16 个过滤器分组训练模型时,相邻层的过滤器之间的相关性。那篇文章提出了一个推理:「过滤器分组的效果是在通道维度上学习块对角结构的稀疏性……在网络中,具有高相关性的过滤器是使用过滤器分组以一种更为结构化的方式学习到。从效果上看,不必学习的过滤器关系就不再参数化。这样显著地减少网络中的参数数量能使其不容易过拟合,因此,一种类似正则化的效果让优化器可以学习得到更准确更高效的深度网络。」

AlexNet conv1 过滤器分解:正如作者指出的那样,过滤器分组似乎会将学习到的过滤器结构性地组织成两个不同的分组。本图来自 AlexNet 论文

此外,每个过滤器分组都会学习数据的一个独特表征。正如 AlexNet 的作者指出的那样,过滤器分组似乎会将学习到的过滤器结构性地组织成两个不同的分组——黑白过滤器和彩色过滤器。

11、混合分组卷积

在来自Magvii Inc(Face ++)的ShuffleNet中引入了混洗分组卷积。 ShuffleNet是一种计算有效的卷积架构,专为具有非常有限的计算能力(例如10-150 MFLOP)的移动设备而设计。

改组分组卷积背后的思想与分组卷积背后的思想(在MobileNet和ResNeXt中用于示例)和深度可分离卷积(在Xception中使用)相关联。

总的来说,混洗分组卷积涉及分组卷积和信道混洗。

在关于分组卷积的部分中,我们知道过滤器被分成不同的组。每组负责具有一定深度的传统2D卷积。总运营量大幅减少。对于下图中的示例,我们有3个过滤器组。第一个过滤器组与输入层中的红色部分进行卷积。类似地,第二和第三滤波器组与输入中的绿色和蓝色部分卷积。每个过滤器组中的内核深度仅为输入层中总通道数的1/3。在该示例中,在第一组分组卷积GConv1之后,输入层被映射到中间特征映射。然后通过第二组分卷积GConv2将该特征映射映射到输出层。

分组卷积在计算上是有效的。但问题是每个过滤器组仅处理从先前层中的固定部分向下传递的信息。对于上图中的示例,第一个滤波器组(红色)仅处理从前1/3输入通道传递的信息。蓝色过滤器组(蓝色)仅处理从最后1/3的输入通道传递下来的信息。因此,每个过滤器组仅限于学习一些特定功能。此属性会阻止通道组之间的信息流,并在训练期间削弱表示。为了解决这个问题,我们应用了频道shuffle。

频道改组的想法是我们想要混合来自不同过滤器组的信息。在下图中,我们在应用具有3个滤波器组的第一组分组卷积GConv1后得到特征图。在将此特征映射馈送到第二个分组卷积之前,我们首先将每个组中的通道划分为多个子组。我们混淆了这些小组。

频道随机播放

在这样的改组之后,我们像往常一样继续执行第二组分组卷积GConv2。 但是现在,由于混洗层中的信息已经混合,我们实质上为GConv2中的每个组提供了特征映射层(或输入层)中的不同子组。 因此,我们允许渠道组之间的信息流动并加强表示。

12、逐点分组卷积

ShuffleNet论文还介绍了逐点分组卷积。通常,对于分组卷积,例如在MobileNet或ResNeXt中,组操作在3x3空间卷积上执行,但不在1 x 1卷积上执行。

shuffleNet论文认为,1 x 1卷积的计算成本也很高。它建议将组卷积应用于1 x 1卷积。正如名称所示,逐点分组卷积执行1 x 1卷积的组操作。该操作与分组卷积相同,只有一个修改 - 在1x1滤波器而不是NxN滤波器(N> 1)上执行。

在ShuffleNet论文中,作者使用了我们学到的三种类型的卷积:(1)混洗分组卷积; (2)逐点分组卷积; (3)深度可分离卷积。这种架构设计显着降低了计算成本,同时保持了准确性。例如,ShuffleNet和AlexNet的分类错误在实际移动设备上具有可比性。然而,计算成本已经从AlexNet的720 MFLOP大幅降低到ShuffleNet的40-140 MFLOP。由于计算成本相对较小且模型性能良好,ShuffleNet在移动设备的卷积神经网络领域获得了普及。

conv_arithmetichttps://github.com/vdumoulin/conv_arithmetic

参考文章

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/95928
推荐阅读
相关标签
  

闽ICP备14008679号