当前位置:   article > 正文

PaddleSeg 自建训练集训练+评估+模型部署

paddleseg

PaddleSeg

PaddleSeg介绍

 PaddleSeg是基于飞桨PaddlePaddle的端到端图像分割套件,内置45+模型算法140+预训练模型,支持配置化驱动API调用开发方式,打通数据标注、模型开发、训练、压缩、部署的全流程,提供语义分割、交互式分割、Matting、全景分割四大分割能力,助力算法在医疗、工业、遥感、娱乐等场景落地应用。

具有模块化、高性能、模块化和全流程的特性。

PaddleSeg 源码下载

PaddleSeg是一个开源的平台,PaddleSeg开源地址如下:
PaddleSeg Github

Paddle Gitee 【国内上不了Github的使用这个】

PaddleSeg 源码目录概述

- configs:里面存储着许多yml的模型结构参数文件

- contirb:一些真实案例相关配置与数据

- deploy:一些模型部署和模型剪枝优化相关的内容

- docs:里面存放着丰富的文档内容,包含重要的教程以及模型结构参数配置文件的解释

- EISeg:一个基于PaddleSeg的交互式图像标注工具

- Matting: 百度的Matting算法相关内容

- paddleseg:Paddleseg的核心代码

- test_tipc:飞桨训推一体认证 (Training and Inference Pipeline Certification(TIPC)) 信息和测试工具(可以查阅每种模型的训练推理部署打通情况,并进行一键测试的工具)

 - tests:一些分析模型速度和精度、还有检测安装脚本,

- tools:一些工具,包括训练,预测,模型评估,以及模型导出等工具。

自建数据集

Paddle的图像分割数据集格式

对于使用Paddleseg中预设的模型,数据一般要么采用的是大型的公开数据集例如:CityScapes数据集ADE20K数据集Pascal VOC 2012数据集,等,要么就使用自建的数据集,这里不对公开数据集进行赘述,详细请看:PaddleSeg-develop\PaddleSeg-develop\docs\data\pre_data_cn.md 文档。

这里主要介绍自建的数据集:
我这里使用的数据集是从网上找的,只用JPEGImages和SegmentationClass,两个文件夹,一个存放原始图像,一个存放标签图像。

PaddleSeg对于自建的数据集,建议按照下面的格式存放:

  1. custom_dataset
  2. |
  3. |--images
  4. | |--image1.jpg
  5. | |--image2.jpg
  6. | |--...
  7. |
  8. |--labels
  9. | |--label1.jpg
  10. | |--label2.png
  11. | |--...
  12. |
  13. |--train.txt
  14. |
  15. |--val.txt
  16. |
  17. |--test.txt

数据集标签图像假彩色的使用

在PaddleSeg中,对于图像分割任务而言,图像的分类的标签,不是文本表现的,而是通过标签集中图像的二值化的像素值来表现的,例如,一张二值化的标签图像的像素值为0~255,像素值0为一般为背景(背景也归为一类)像素值为1的为第二类像素值为2的为第三类,依次类推。

但通常,以人眼来说根本看不出二值化图像中0和1的区别,例如下图,里面有两个像素值,两个类别,一个为0(背景),另一个为1(手机的油污):

上图是给计算机使用的,但是人无法分别,所以我们一般会将标签图像转换成假彩色图像来观察制作的标签是否正确,上图转换为假彩色图像后如下(注意,假彩色不能用来训练,只能用来人眼观测):

对于假彩色的制作,PaddlSge提供了一个工具:gray2pseudo_color.py(PaddleSeg-develop\tools\data\gray2pseudo_color.py)

将假彩色转换为标签图像

当我们在网上获取训练数据时,数据集中可能没有标签图像,只有假彩色图像,我们可以使用一些手段,将假彩色图像转换为标签图像:

  1. import cv2
  2. import os
  3. import numpy as np
  4. def rgb2binary(input_path, output_path):
  5. img = cv2.imread(input_path)
  6. img = cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)
  7. #注意这里是将像素值为2~255的转换为1,但是假彩色中因为插值算法的问题可能存在,
  8. #像素值不0,但却依旧是背景的情况,或者显著目标的可能,也就是存在过渡带
  9. #这里的阈值2~255 要根据实际情况选择
  10. ret,img = cv2.threshold(img, 2, 255, cv2.THRESH_BINARY)
  11. img= np.uint8(np.double(img) / 255)
  12. cv2.imwrite(output_path,img)
  13. #输入的假彩色图像文件夹
  14. intput_root = r'C:\Users\delight\Downloads\PaddleSeg-develop\PaddleSeg-develop\custom_data\Oil\labels'
  15. #输出的标签图像文件夹
  16. output_root = r'C:\Users\delight\Downloads\PaddleSeg-develop\PaddleSeg-develop\custom_data\Oil\annotations'
  17. os.mkdir(output_root)
  18. names = os.listdir(intput_root)
  19. for i,name in enumerate(names):
  20. if name[-2] == 'n':
  21. input_path = os.path.join(intput_root,name)
  22. output_path = os.path.join(output_root,name)
  23. rgb2binary(input_path,output_path)

左边是转换前,右边是转换后(有重命名)。

使用split_dataset_list.py进行数据集划分与文件列表创建

当我们拥有原始图像数据(images)标注好的训练标签图像(annotations)时(一般原始图像格式为.jpg,标签图像为.png),我们可以使用split_dataset_list.py,来生成PaddleSeg中的Dataset数据集读取父类中所需要的文件列表(train.txt和val.txt)

split_dataset_list.py在tools\data路径下:

一般我们只需要设置四个参数即可,下面划分的权重代表的含义为:数据的70%划分为训练集 数据的20%划分,为验证集 ,剩下数据的10%划分为测试集。运行脚本后将会在数据集根目录下得到。

文件中内容如下(图像与标签一 一对应):

训练

网络模型配置文件参数详解

以PaddleSeg/configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml为例,详细解读配置文件如下。

  1. batch_size: 4 #设定batch_size的值即为迭代一次送入网络的图片数量,一般显卡显存越大,batch_size的值可以越大。如果使用多卡训练,总得batch size等于该batch size乘以卡数。
  2. iters: 1000 #模型训练迭代的轮数
  3. train_dataset: #训练数据设置
  4. type: Dataset #指定加载数据集的类
  5. dataset_root: data/optic_disc_seg #数据集路径
  6. train_path: data/optic_disc_seg/train_list.txt #数据集中用于训练的标识文件
  7. num_classes: 2 #指定类别个数(背景也算为一类)
  8. mode: train #表示用于训练
  9. transforms: #模型训练的数据预处理方式。
  10. - type: ResizeStepScaling #将原始图像和标注图像随机缩放为0.5~2.0
  11. min_scale_factor: 0.5
  12. max_scale_factor: 2.0
  13. scale_step_size: 0.25
  14. - type: RandomPaddingCrop #从原始图像和标注图像中随机裁剪512x512大小
  15. crop_size: [512, 512]
  16. - type: RandomHorizontalFlip #对原始图像和标注图像随机进行水平反转
  17. - type: RandomDistort #对原始图像进行亮度、对比度、饱和度随机变动,标注图像不变
  18. brightness_range: 0.5
  19. contrast_range: 0.5
  20. saturation_range: 0.5
  21. - type: Normalize #对原始图像进行归一化,标注图像保持不变
  22. val_dataset: #验证数据设置
  23. type: Dataset #指定加载数据集的类
  24. dataset_root: data/optic_disc_seg #数据集路径
  25. val_path: data/optic_disc_seg/val_list.txt #数据集中用于验证的标识文件
  26. num_classes: 2 #指定类别个数(背景也算为一类)
  27. mode: val #表示用于验证
  28. transforms: #模型验证的数据预处理的方式
  29. - type: Normalize #对原始图像进行归一化,标注图像保持不变
  30. optimizer: #设定优化器的类型
  31. type: sgd #采用SGD(Stochastic Gradient Descent)随机梯度下降方法为优化器
  32. momentum: 0.9 #设置SGD的动量
  33. weight_decay: 4.0e-5 #权值衰减,使用的目的是防止过拟合
  34. lr_scheduler: # 学习率的相关设置
  35. type: PolynomialDecay # 一种学习率类型。共支持12种策略
  36. learning_rate: 0.01 # 初始学习率
  37. power: 0.9
  38. end_lr: 0
  39. loss: #设定损失函数的类型
  40. types:
  41. - type: CrossEntropyLoss #CE损失
  42. coef: [1, 1, 1] # PP-LiteSeg有一个主loss和两个辅助loss,coef表示权重,所以 total_loss = coef_1 * loss_1 + .... + coef_n * loss_n
  43. model: #模型说明
  44. type: PPLiteSeg #设定模型类别
  45. backbone: # 设定模型的backbone,包括名字和预训练权重
  46. type: STDC2
  47. pretrained: https://bj.bcebos.com/paddleseg/dygraph/PP_STDCNet2.tar.gz

修改网络模型配置文件

对于自建数据集来说,我们需要重新配置数据集配置文件,以\configs\u2net目录下的配置文件u2net_cityscapes_1024x512_160k.yml为例

我们主要把type修改为Dataset,train_datasetval_datasetnum_classes改为实际类别数量(背景也为一类)训练集和验证集路径修改为实际路径。

使用tran.py 训练

  • --config指定配置文件。
  • --save_interval指定每训练特定轮数后,就进行一次模型保存或者评估(如果开启模型评估)。
  • --do_eval开启模型评估。具体而言,在训练save_interval指定的轮数后,会进行模型评估。
  • --use_vdl开启写入VisualDL日志信息,用于VisualDL可视化训练过程。
  • --save_dir指定模型和visualdl日志文件的保存根路径。

进入训练

评估

使用visualDL,查看模型损失函数迭代过程和Acc和mIOU指标

在训练过程中,训练日志会输出到你设定的目录中

打开Anaconda Prompt

输入:
 

  1. activate <your_env>
  2. visualdl --logdir <your output dir>

如下:

使用浏览器打开:http://localhost:8040/ 可实时查看网络训练过程。

这里有两个指标:
mIOU:IOU是指分割结果与真实分割结果之间的交集与并集之比,将所有类别的IOU求平均,得到整个图像的平均IOU也即是mIOU。IOU越高,说明分割结果与真实结果越接近,分割性能越好。

ACC:所有类别的像素分类正确率的平均值。

使用val.py 对验证集数据进行验证

我们,可以使用tool文件夹下的val.py工具和配置文件中的验证数据集来对模型进行评估。

  • --config 模型配置文件
  • --model_path 模型文件路径
  • --aug_eval 多尺度评估
  • --scales 尺度信息
  • --flip_horizontal 开启水平翻转
  • --flip_vertical 开启垂直翻转
  • --is_slide 是否开启滑动窗口

        ......

配置示例如下:

模型评估结果如下:

这里的Kappa系数也是图像分割类型任务中三种常用的分析模型性能的参数之一:

Kappa :一个用于一致性检验的指标,可以用于衡量分类的效果。kappa系数的计算是基于混淆矩阵的,取值为-1到1之间,通常大于0。Kappa系数越高模型质量越好。

使用analyse.py 对模型进行分析

使用analyse.py模型来对验证集的每个图像进行预测和评估,与val.py类似

配置如下

执行后会在默认路径下:./output/result输入以下两个文件夹和一个分析结果json(存储着每张图像的每个类别的IOU和mIOU)

预测

使用predict.py来预测目标

部署

使用export.py 导出模型文件

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/510375
推荐阅读
  

闽ICP备14008679号