当前位置:   article > 正文

fcn网络结构代码_FCN 全卷积网络论文阅读及代码实现

fcn由什么组成

686a399b0ecdf2d4db31d2562023d49d.png

今天来看一篇复古的文章,Full Convolutional Networks 即全卷积神经网络,这是 2015 年的一篇语义分割方向的文章,是一篇比较久远的开山之作。因为最近在研究语义分割方向,所以还是决定先从这个鼻祖入手,毕竟后面的文章很多都借鉴了这篇文章的思想,掌握好基础我们才能飞的更高。本篇文章分为两部分: 论文解读与代码实现。

论文地址:

Fully Convolutional Networks for Semantic Segmentation​people.eecs.berkeley.edu

论文解读

  • 语义分割介绍

语义分割(Semantic Segmentation)的目的是对图像中每一个像素点进行分类,与普通的分类任务只输出某个类别不同,语义分割任务输出是与输入图像大小相同的图像,输出图像的每个像素对应了输入图像每个像素的类别。

f36a0641d2f325b9fbdd9de963b67bc0.png
语义分割的预测结果
  • 网络结构

FCN 的基本结构很简单,就是全部由卷积层组成的网络。用于图像分类的网络一般结构是"卷积-池化-卷积-池化-全连接",其中卷积和全连接层是有参数的,池化则没有参数。论文作者认为全连接层让目标的位置信息消失了,只保留了语义信息,因此将全连接操作更换为卷积操作可以同时保留位置信息及语义信息,达到给每个像素分类的目的。网络的基本结构如下:

c13ce86f9e573fb2144b4aed0f05b267.png
fcn网络结构

输入图像经过卷积和池化之后,得到的 feature map 宽高相对原图缩小了数倍,例如下图中,提取特征之后"特征长方体"的宽高为原图像的 1/32,为了得到与原图大小一致的输出结果,需要对其进行上采样(upsampling),下面介绍上采样的方法之一-反卷积(图中最终输出的"厚度"是 21,因为类别数是 21,每一层可以看做是原图像中的每个像素属于某类别的概率,coding 的时候需要注意一下)。

bb535084494c062e1ea0c14adf535695.png
网络结构细节
  • 反卷积

反卷积是上采样(unsampling) 的一种方式,论文作者在实验之后发现反卷积相较于其他上采样方式例如 bilinear upsampling 效率更高,所以采用了这种方式。

关于反卷积的解释借鉴了这一篇: https://medium.com/activating-robotic-minds/up-sampling-with-transposed-convolution-9ae4f2df52d0, 英文OK的小伙伴推荐看原文,讲的很通透。

先看看正向卷积,我们知道卷积操作本质就是矩阵相乘再相加。现在假设我们有一个 4x4 的矩阵,卷积核大小为 3x3,步幅为 1 且不填充,那么其输出会是一个 2x2 的矩阵,这个过程实际是一个多对一的映射:

7568000651b13a487072452ec2528580.png
卷积

将整个卷积步骤分成四步来看是这样的过程:

9a92b2769c3ba8358e1bcdee679b8bc3.png
卷积步骤

从上图也可以看出,卷积操作其实是保留了位置信息的,例如输出矩阵中左上角的数字"122"就对应了原矩阵左上方的 9 个元素。

那么如何将结果的 2x2 的矩阵"扩展"为 4x4 的矩阵呢(一对多的映射)。我们从另一个角度来看卷积,首先我们将卷积核展开为一行,原矩阵展开为一列:

af0b8d0fdada6a395a46d0e1a1081f38.png
卷积核展开为一行

ef81606acb86dbdc9d2deef69e5f25f5.png
原矩阵展开为一列

则卷积过程的第一步:

f8edbe7063f352587046f44679771f15.png
卷积的第一个步骤

不要着急,可以细细体会一下,卷积操作确实如此。可以看出,4x16 的卷积核矩阵与 16x1 的输入矩阵相乘,得到了 4x1 的输出矩阵,达到了多对一映射的效果,那么将卷积核矩阵转置为 16x4 乘上输出矩阵 4x1 就可以达到一对多映射的效果,因此反卷积也叫做转置卷积。具体过程如下:

284557377c5dc1db4d10f566575c0b56.png
一对多

495a87a5ab7bc1395451e8de5e8a7095.png
转置卷积

总结来说,全卷积网络的基本结构就是"卷积-反卷积-分类器",通过卷积提取位置信息及语义信息,通过反卷积上采样至原图像大小,再加上深层特征与浅层特征的融合,达到了语义分割的目的。

代码实现

自己实现了简单版本的 FCN,代码地址 github:

https://github.com/FroyoZzz/CV-Papers-Codes​github.com

欢迎提问以及 star。

VGG16 网络代码,forward 返回了卷积过程中各层的输出,以便后面与反卷积的特征做融合:

  1. class VGG(nn.Module):
  2. def __init__(self, pretrained=True):
  3. super(VGG, self).__init__()
  4. # conv1 1/2
  5. self.conv1_1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)
  6. self.relu1_1 = nn.ReLU(inplace=True)
  7. self.conv1_2 = nn.Conv2d(64, 64, kernel_size=3, padding=1)
  8. self.relu1_2 = nn.ReLU(inplace=True)
  9. self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)
  10. # conv2 1/4
  11. self.conv2_1 = nn.Conv2d(64, 128, kernel_size=3, padding=1)
  12. self.relu2_1 = nn.ReLU(inplace=True)
  13. self.conv2_2 = nn.Conv2d(128, 128, kernel_size=3, padding=1)
  14. self.relu2_2 = nn.ReLU(inplace=True)
  15. self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)
  16. # conv3 1/8
  17. self.conv3_1 = nn.Conv2d(128, 256, kernel_size=3, padding=1)
  18. self.relu3_1 = nn.ReLU(inplace=True)
  19. self.conv3_2 = nn.Conv2d(256, 256, kernel_size=3, padding=1)
  20. self.relu3_2 = nn.ReLU(inplace=True)
  21. self.conv3_3 = nn.Conv2d(256, 256, kernel_size=3, padding=1)
  22. self.relu3_3 = nn.ReLU(inplace=True)
  23. self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)
  24. # conv4 1/16
  25. self.conv4_1 = nn.Conv2d(256, 512, kernel_size=3, padding=1)
  26. self.relu4_1 = nn.ReLU(inplace=True)
  27. self.conv4_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
  28. self.relu4_2 = nn.ReLU(inplace=True)
  29. self.conv4_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
  30. self.relu4_3 = nn.ReLU(inplace=True)
  31. self.pool4 = nn.MaxPool2d(kernel_size=2, stride=2)
  32. # conv5 1/32
  33. self.conv5_1 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
  34. self.relu5_1 = nn.ReLU(inplace=True)
  35. self.conv5_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
  36. self.relu5_2 = nn.ReLU(inplace=True)
  37. self.conv5_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
  38. self.relu5_3 = nn.ReLU(inplace=True)
  39. self.pool5 = nn.MaxPool2d(kernel_size=2, stride=2)
  40. # load pretrained params from torchvision.models.vgg16(pretrained=True)
  41. if pretrained:
  42. pretrained_model = vgg16(pretrained=pretrained)
  43. pretrained_params = pretrained_model.state_dict()
  44. keys = list(pretrained_params.keys())
  45. new_dict = {}
  46. for index, key in enumerate(self.state_dict().keys()):
  47. new_dict[key] = pretrained_params[keys[index]]
  48. self.load_state_dict(new_dict)
  49. def forward(self, x):
  50. x = self.relu1_1(self.conv1_1(x))
  51. x = self.relu1_2(self.conv1_2(x))
  52. x = self.pool1(x)
  53. pool1 = x
  54. x = self.relu2_1(self.conv2_1(x))
  55. x = self.relu2_2(self.conv2_2(x))
  56. x = self.pool2(x)
  57. pool2 = x
  58. x = self.relu3_1(self.conv3_1(x))
  59. x = self.relu3_2(self.conv3_2(x))
  60. x = self.relu3_3(self.conv3_3(x))
  61. x = self.pool3(x)
  62. pool3 = x
  63. x = self.relu4_1(self.conv4_1(x))
  64. x = self.relu4_2(self.conv4_2(x))
  65. x = self.relu4_3(self.conv4_3(x))
  66. x = self.pool4(x)
  67. pool4 = x
  68. x = self.relu5_1(self.conv5_1(x))
  69. x = self.relu5_2(self.conv5_2(x))
  70. x = self.relu5_3(self.conv5_3(x))
  71. x = self.pool5(x)
  72. pool5 = x
  73. return pool1, pool2, pool3, pool4, pool5

FCN 网络,结构也很简单,包含了反卷积以及与浅层信息的融合:

  1. class FCNs(nn.Module):
  2. def __init__(self, num_classes, backbone="vgg"):
  3. super(FCNs, self).__init__()
  4. self.num_classes = num_classes
  5. if backbone == "vgg":
  6. self.features = VGG()
  7. # deconv1 1/16
  8. self.deconv1 = nn.ConvTranspose2d(512, 512, kernel_size=3, stride=2, padding=1, output_padding=1)
  9. self.bn1 = nn.BatchNorm2d(512)
  10. self.relu1 = nn.ReLU()
  11. # deconv1 1/8
  12. self.deconv2 = nn.ConvTranspose2d(512, 256, kernel_size=3, stride=2, padding=1, output_padding=1)
  13. self.bn2 = nn.BatchNorm2d(256)
  14. self.relu2 = nn.ReLU()
  15. # deconv1 1/4
  16. self.deconv3 = nn.ConvTranspose2d(256, 128, kernel_size=3, stride=2, padding=1, output_padding=1)
  17. self.bn3 = nn.BatchNorm2d(128)
  18. self.relu3 = nn.ReLU()
  19. # deconv1 1/2
  20. self.deconv4 = nn.ConvTranspose2d(128, 64, kernel_size=3, stride=2, padding=1, output_padding=1)
  21. self.bn4 = nn.BatchNorm2d(64)
  22. self.relu4 = nn.ReLU()
  23. # deconv1 1/1
  24. self.deconv5 = nn.ConvTranspose2d(64, 32, kernel_size=3, stride=2, padding=1, output_padding=1)
  25. self.bn5 = nn.BatchNorm2d(32)
  26. self.relu5 = nn.ReLU()
  27. self.classifier = nn.Conv2d(32, num_classes, kernel_size=1)
  28. def forward(self, x):
  29. features = self.features(x)
  30. y = self.bn1(self.relu1(self.deconv1(features[4])) + features[3])
  31. y = self.bn2(self.relu2(self.deconv2(y)) + features[2])
  32. y = self.bn3(self.relu3(self.deconv3(y)) + features[1])
  33. y = self.bn4(self.relu4(self.deconv4(y)) + features[0])
  34. y = self.bn5(self.relu5(self.deconv5(y)))
  35. y = self.classifier(y)
  36. return y

训练,每个 epoch 会保存一个模型,默认保存在./models下:

python train.py

我的训练结果,上面一行是预测值,下面一行是目标值:

5 个 epoch 时:

250bbfedd925f455a56b8e421a4cebe4.png
5 个 epoch

10 个 epoch 时:

5cb93b231d693fb6e053f18d8a985cc5.png
10 个 epoch

20 个 epoch 时:

5f2c5f6f2777610bf21f43a0eb28c58e.png
20 个 epoch

训练好的模型由于比较大我就没有传到 git 上,数据集比较小自己训练的话大概半个小时就可以训练结束,前提是有显卡,如果需要训练好的模型的话可以关注公众号后台回复[包模型]获取。

PS:欢迎关注我的个人微信公众号 [MachineLearning学习之路],和我一起学习 python,深度学习,计算机视觉 !

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/72327
推荐阅读
相关标签
  

闽ICP备14008679号