当前位置:   article > 正文

华为开源自研AI框架昇思MindSpore应用案例:FCN图像语义分割

华为开源自研AI框架昇思MindSpore应用案例:FCN图像语义分割

全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation[1]一文中提出的用于图像语义分割的一种框架。

FCN是首个端到端(end to end)进行像素级(pixel level)预测的全卷积网络。

fcn-1

语义分割

在具体介绍FCN之前,首先介绍何为语义分割:

图像语义分割(semantic segmentation)是图像处理和机器视觉技术中关于图像理解的重要一环,AI领域中一个重要分支,常被应用于人脸识别、物体检测、医学影像、卫星图像分析、自动驾驶感知等领域。

语义分割的目的是对图像中每个像素点进行分类。与普通的分类任务只输出某个类别不同,语义分割任务输出与输入大小相同的图像,输出图像的每个像素对应了输入图像每个像素的类别。语义在图像领域指的是图像的内容,对图片意思的理解,下图是一些语义分割的实例:

fcn-2

模型简介

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。

全卷积神经网络主要使用以下三种技术:

  1. 卷积化(Convolutional)

    使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输出为1000个预测值。VGG-16只能接受固定大小的输入,丢弃了空间坐标,产生非空间输出。VGG-16中共有三个全连接层,全连接层也可视为带有覆盖整个区域的卷积。将全连接层转换为卷积层能使网络输出由一维非空间输出变为二维矩阵,利用输出能生成输入图片映射的heatmap。

    fcn-3

  2. 上采样(Upsample)

    在卷积过程的卷积操作和池化操作会使得特征图的尺寸变小,为得到原图的大小的稠密图像预测,需要对得到的特征图进行上采样操作。使用双线性插值的参数来初始化上采样逆卷积的参数,后通过反向传播来学习非线性上采样。在网络中执行上采样,以通过像素损失的反向传播进行端到端的学习。

    fcn-4

  3. 跳跃结构(Skip Layer)

    利用上采样技巧对最后一层的特征图进行上采样得到原图大小的分割是步长为32像素的预测,称之为FCN-32s。由于最后一层的特征图太小,损失过多细节,采用skips结构将更具有全局信息的最后一层预测和更浅层的预测结合,使预测结果获取更多的局部细节。将底层(stride 32)的预测(FCN-32s)进行2倍的上采样得到原尺寸的图像,并与从pool4层(stride 16)进行的预测融合起来(相加),这一部分的网络被称为FCN-16s。随后将这一部分的预测再进行一次2倍的上采样并与从pool3层得到的预测融合起来,这一部分的网络被称为FCN-8s。 Skips结构将深层的全局信息与浅层的局部信息相结合。

    fcn-5

网络特点

  1. 不含全连接层(fc)的全卷积(fully conv)网络,可适应任意尺寸输入。

  2. 增大数据尺寸的反卷积(deconv)层,能够输出精细的结果。

  3. 结合不同深度层结果的跳级(skip)结构,同时确保鲁棒性和精确性。

如果你对MindSpore感兴趣,可以关注昇思MindSpore社区

在这里插入图片描述

在这里插入图片描述

一、环境准备

1.进入ModelArts官网

云平台帮助用户快速创建和部署模型,管理全周期AI工作流,选择下面的云平台以开始使用昇思MindSpore,获取安装命令,安装MindSpore2.0.0-alpha版本,可以在昇思教程中进入ModelArts官网

在这里插入图片描述

选择下方CodeLab立即体验

在这里插入图片描述

等待环境搭建完成

在这里插入图片描述

2.使用CodeLab体验Notebook实例

下载NoteBook样例代码SSD目标检测 ,.ipynb为样例代码

选择ModelArts Upload Files上传.ipynb文件

在这里插入图片描述

选择Kernel环境

切换至GPU环境,切换成第一个限时免费

在这里插入图片描述

进入昇思MindSpore官网,点击上方的安装

在这里插入图片描述

获取安装命令

在这里插入图片描述

回到Notebook中,在第一块代码前加入命令
在这里插入图片描述

conda update -n base -c defaults conda

在这里插入图片描述

安装MindSpore 2.0 GPU版本

conda install mindspore=2.0.0a0 -c mindspore -c conda-forge

在这里插入图片描述

安装mindvision

pip install mindvision

在这里插入图片描述

安装下载download

pip install download

在这里插入图片描述

二、环境准备

本案例基于MindSpore实现,开始实验前,请确保本地已经安装了mindspore、download、pycocotools、opencv-python。

数据处理

开始实验前,需确保本地已经安装Python环境及MindSpore。

  1. from download import download
  2. url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/datasets/dataset_fcn8s.tar"
  3. download(url, "./dataset", kind="tar", replace=True)

数据预处理

由于PASCAL VOC 2012数据集中图像的分辨率大多不一致,无法放在一个tensor中,故输入前需做标准化处理。

数据加载

将PASCAL VOC 2012数据集与SDB数据集进行混合。

  1. import numpy as np
  2. import cv2
  3. import mindspore.dataset as ds
  4. class SegDataset:
  5. def __init__(self,
  6. image_mean,
  7. image_std,
  8. data_file='',
  9. batch_size=32,
  10. crop_size=512,
  11. max_scale=2.0,
  12. min_scale=0.5,
  13. ignore_label=255,
  14. num_classes=21,
  15. num_readers=2,
  16. num_parallel_calls=4):
  17. self.data_file = data_file
  18. self.batch_size = batch_size
  19. self.crop_size = crop_size
  20. self.image_mean = np.array(image_mean, dtype=np.float32)
  21. self.image_std = np.array(image_std, dtype=np.float32)
  22. self.max_scale = max_scale
  23. self.min_scale = min_scale
  24. self.ignore_label = ignore_label
  25. self.num_classes = num_classes
  26. self.num_readers = num_readers
  27. self.num_parallel_calls = num_parallel_calls
  28. max_scale > min_scale
  29. def preprocess_dataset(self, image, label):
  30. image_out = cv2.imdecode(np.frombuffer(image, dtype=np.uint8), cv2.IMREAD_COLOR)
  31. label_out = cv2.imdecode(np.frombuffer(label, dtype=np.uint8), cv2.IMREAD_GRAYSCALE)
  32. sc = np.random.uniform(self.min_scale, self.max_scale)
  33. new_h, new_w = int(sc * image_out.shape[0]), int(sc * image_out.shape[1])
  34. image_out = cv2.resize(image_out, (new_w, new_h), interpolation=cv2.INTER_CUBIC)
  35. label_out = cv2.resize(label_out, (new_w, new_h), interpolation=cv2.INTER_NEAREST)
  36. image_out = (image_out - self.image_mean) / self.image_std
  37. out_h, out_w = max(new_h, self.crop_size), max(new_w, self.crop_size)
  38. pad_h, pad_w = out_h - new_h, out_w - new_w
  39. if pad_h > 0 or pad_w > 0:
  40. image_out = cv2.copyMakeBorder(image_out, 0, pad_h, 0, pad_w, cv2.BORDER_CONSTANT, value=0)
  41. label_out = cv2.copyMakeBorder(label_out, 0, pad_h, 0, pad_w, cv2.BORDER_CONSTANT, value=self.ignore_label)
  42. offset_h = np.random.randint(0, out_h - self.crop_size + 1)
  43. offset_w = np.random.randint(0, out_w - self.crop_size + 1)
  44. image_out = image_out[offset_h: offset_h + self.crop_size, offset_w: offset_w + self.crop_size, :]
  45. label_out = label_out[offset_h: offset_h + self.crop_size, offset_w: offset_w+self.crop_size]
  46. if np.random.uniform(0.0, 1.0) > 0.5:
  47. image_out = image_out[:, ::-1, :]
  48. label_out = label_out[:, ::-1]
  49. image_out = image_out.transpose((2, 0, 1))
  50. image_out = image_out.copy()
  51. label_out = label_out.copy()
  52. label_out = label_out.astype("int32")
  53. return image_out, label_out
  54. def get_dataset(self):
  55. ds.config.set_numa_enable(True)
  56. dataset = ds.MindDataset(self.data_file, columns_list=["data", "label"],
  57. shuffle=True, num_parallel_workers=self.num_readers)
  58. transforms_list = self.preprocess_dataset
  59. dataset = dataset.map(operations=transforms_list, input_columns=["data", "label"],
  60. output_columns=["data", "label"],
  61. num_parallel_workers=self.num_parallel_calls)
  62. dataset = dataset.shuffle(buffer_size=self.batch_size * 10)
  63. dataset = dataset.batch(self.batch_size, drop_remainder=True)
  64. return dataset
  65. # 定义创建数据集的参数
  66. IMAGE_MEAN = [103.53, 116.28, 123.675]
  67. IMAGE_STD = [57.375, 57.120, 58.395]
  68. DATA_FILE = "dataset/dataset_fcn8s/mindname.mindrecord"
  69. # 定义模型训练参数
  70. train_batch_size = 4
  71. crop_size = 512
  72. min_scale = 0.5
  73. max_scale = 2.0
  74. ignore_label = 255
  75. num_classes = 21
  76. # 实例化Dataset
  77. dataset = SegDataset(image_mean=IMAGE_MEAN,
  78. image_std=IMAGE_STD,
  79. data_file=DATA_FILE,
  80. batch_size=train_batch_size,
  81. crop_size=crop_size,
  82. max_scale=max_scale,
  83. min_scale=min_scale,
  84. ignore_label=ignore_label,
  85. num_classes=num_classes,
  86. num_readers=2,
  87. num_parallel_calls=4)
  88. dataset = dataset.get_dataset()
 

训练集可视化

运行以下代码观察载入的数据集图片(数据处理过程中已做归一化处理)。

  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. plt.figure(figsize=(16, 8))
  4. # 对训练集中的数据进行展示
  5. for i in range(1, 9):
  6. plt.subplot(2, 4, i)
  7. show_data = next(dataset.create_dict_iterator())
  8. show_images = show_data["data"].asnumpy()
  9. show_images = np.clip(show_images, 0, 1)
  10. # 将图片转换HWC格式后进行展示
  11. plt.imshow(show_images[0].transpose(1, 2, 0))
  12. plt.axis("off")
  13. plt.subplots_adjust(wspace=0.05, hspace=0)
  14. plt.show()

网络构建

网络流程

FCN网络的流程如下图所示:

  1. 输入图像image,经过pool1池化后,尺寸变为原始尺寸的1/2。

  2. 经过pool2池化,尺寸变为原始尺寸的1/4。

  3. 接着经过pool3、pool4、pool5池化,大小分别变为原始尺寸的1/8、1/16、1/32。

  4. 经过conv6-7卷积,输出的尺寸依然是原图的1/32。

  5. FCN-32s是最后使用反卷积,使得输出图像大小与输入图像相同。

  6. FCN-16s是将conv7的输出进行反卷积,使其尺寸扩大两倍至原图的1/16,并将其与pool4输出的特征图进行融合,后通过反卷积扩大到原始尺寸。

  7. FCN-8s是将conv7的输出进行反卷积扩大4倍,将pool4输出的特征图反卷积扩大2倍,并将pool3输出特征图拿出,三者融合后通反卷积扩大到原始尺寸。

fcn-6

使用以下代码构建FCN-8s网络。

  1. import mindspore.nn as nn
  2. class FCN8s(nn.Cell):
  3. def __init__(self, n_class):
  4. super().__init__()
  5. self.n_class = n_class
  6. self.conv1 = nn.SequentialCell(
  7. nn.Conv2d(in_channels=3, out_channels=64,
  8. kernel_size=3, weight_init='xavier_uniform'),
  9. nn.BatchNorm2d(64),
  10. nn.ReLU(),
  11. nn.Conv2d(in_channels=64, out_channels=64,
  12. kernel_size=3, weight_init='xavier_uniform'),
  13. nn.BatchNorm2d(64),
  14. nn.ReLU()
  15. )
  16. self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)
  17. self.conv2 = nn.SequentialCell(
  18. nn.Conv2d(in_channels=64, out_channels=128,
  19. kernel_size=3, weight_init='xavier_uniform'),
  20. nn.BatchNorm2d(128),
  21. nn.ReLU(),
  22. nn.Conv2d(in_channels=128, out_channels=128,
  23. kernel_size=3, weight_init='xavier_uniform'),
  24. nn.BatchNorm2d(128),
  25. nn.ReLU()
  26. )
  27. self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)
  28. self.conv3 = nn.SequentialCell(
  29. nn.Conv2d(in_channels=128, out_channels=256,
  30. kernel_size=3, weight_init='xavier_uniform'),
  31. nn.BatchNorm2d(256),
  32. nn.ReLU(),
  33. nn.Conv2d(in_channels=256, out_channels=256,
  34. kernel_size=3, weight_init='xavier_uniform'),
  35. nn.BatchNorm2d(256),
  36. nn.ReLU(),
  37. nn.Conv2d(in_channels=256, out_channels=256,
  38. kernel_size=3, weight_init='xavier_uniform'),
  39. nn.BatchNorm2d(256),
  40. nn.ReLU()
  41. )
  42. self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)
  43. self.conv4 = nn.SequentialCell(
  44. nn.Conv2d(in_channels=256, out_channels=512,
  45. kernel_size=3, weight_init='xavier_uniform'),
  46. nn.BatchNorm2d(512),
  47. nn.ReLU(),
  48. nn.Conv2d(in_channels=512, out_channels=512,
  49. kernel_size=3, weight_init='xavier_uniform'),
  50. nn.BatchNorm2d(512),
  51. nn.ReLU(),
  52. nn.Conv2d(in_channels=512, out_channels=512,
  53. kernel_size=3, weight_init='xavier_uniform'),
  54. nn.BatchNorm2d(512),
  55. nn.ReLU()
  56. )
  57. self.pool4 = nn.MaxPool2d(kernel_size=2, stride=2)
  58. self.conv5 = nn.SequentialCell(
  59. nn.Conv2d(in_channels=512, out_channels=512,
  60. kernel_size=3, weight_init='xavier_uniform'),
  61. nn.BatchNorm2d(512),
  62. nn.ReLU(),
  63. nn.Conv2d(in_channels=512, out_channels=512,
  64. kernel_size=3, weight_init='xavier_uniform'),
  65. nn.BatchNorm2d(512),
  66. nn.ReLU(),
  67. nn.Conv2d(in_channels=512, out_channels=512,
  68. kernel_size=3, weight_init='xavier_uniform'),
  69. nn.BatchNorm2d(512),
  70. nn.ReLU()
  71. )
  72. self.pool5 = nn.MaxPool2d(kernel_size=2, stride=2)
  73. self.conv6 = nn.SequentialCell(
  74. nn.Conv2d(in_channels=512, out_channels=4096,
  75. kernel_size=7, weight_init='xavier_uniform'),
  76. nn.BatchNorm2d(4096),
  77. nn.ReLU(),
  78. )
  79. self.conv7 = nn.SequentialCell(
  80. nn.Conv2d(in_channels=4096, out_channels=4096,
  81. kernel_size=1, weight_init='xavier_uniform'),
  82. nn.BatchNorm2d(4096),
  83. nn.ReLU(),
  84. )
  85. self.score_fr = nn.Conv2d(in_channels=4096, out_channels=self.n_class,
  86. kernel_size=1, weight_init='xavier_uniform')
  87. self.upscore2 = nn.Conv2dTranspose(in_channels=self.n_class, out_channels=self.n_class,
  88. kernel_size=4, stride=2, weight_init='xavier_uniform')
  89. self.score_pool4 = nn.Conv2d(in_channels=512, out_channels=self.n_class,
  90. kernel_size=1, weight_init='xavier_uniform')
  91. self.upscore_pool4 = nn.Conv2dTranspose(in_channels=self.n_class, out_channels=self.n_class,
  92. kernel_size=4, stride=2, weight_init='xavier_uniform')
  93. self.score_pool3 = nn.Conv2d(in_channels=256, out_channels=self.n_class,
  94. kernel_size=1, weight_init='xavier_uniform')
  95. self.upscore8 = nn.Conv2dTranspose(in_channels=self.n_class, out_channels=self.n_class,
  96. kernel_size=16, stride=8, weight_init='xavier_uniform')
  97. def construct(self, x):
  98. x1 = self.conv1(x)
  99. p1 = self.pool1(x1)
  100. x2 = self.conv2(p1)
  101. p2 = self.pool2(x2)
  102. x3 = self.conv3(p2)
  103. p3 = self.pool3(x3)
  104. x4 = self.conv4(p3)
  105. p4 = self.pool4(x4)
  106. x5 = self.conv5(p4)
  107. p5 = self.pool5(x5)
  108. x6 = self.conv6(p5)
  109. x7 = self.conv7(x6)
  110. sf = self.score_fr(x7)
  111. u2 = self.upscore2(sf)
  112. s4 = self.score_pool4(p4)
  113. f4 = s4 + u2
  114. u4 = self.upscore_pool4(f4)
  115. s3 = self.score_pool3(p3)
  116. f3 = s3 + u4
  117. out = self.upscore8(f3)
  118. return out

训练准备

导入VGG-16部分预训练权重

FCN使用VGG-16作为骨干网络,用于实现图像编码。使用下面代码导入VGG-16预训练模型的部分预训练权重。

  1. from download import download
  2. from mindspore import load_checkpoint, load_param_into_net
  3. url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/datasets/fcn8s_vgg16_pretrain.ckpt"
  4. download(url, "fcn8s_vgg16_pretrain.ckpt", replace=True)
  5. def load_vgg16():
  6. ckpt_vgg16 = "fcn8s_vgg16_pretrain.ckpt"
  7. param_vgg = load_checkpoint(ckpt_vgg16)
  8. load_param_into_net(net, param_vgg)

损失函数

语义分割是对图像中每个像素点进行分类,仍是分类问题,故损失函数选择交叉熵损失函数来计算FCN网络输出与mask之间的交叉熵损失。这里我们使用的是mindspore.nn.CrossEntropyLoss()作为损失函数。

自定义评价指标 Metrics

这一部分主要对训练出来的模型效果进行评估,为了便于解释,假设如下:共有 声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/843477

推荐阅读
相关标签