当前位置:   article > 正文

基于Python的图像分类-Finetune训练模型_eval_interval

eval_interval

迁移训练-使用finetune

零、上传文件并在终端使用解压码解压

下载所需文件并上传

链接:https://pan.baidu.com/s/19DdkqOh-lrtLM1bd-dpdAA
提取码:2333

使用终端解压

粘贴

一、简介

本任务为,将此前我们找到的准确率最高的预训练网络模型,改造为可以从上万张图片中,帮我们筛选为五分类的中草药模型。

——注意:前面的一到八,八个步骤使用自己的中草药数据集,介绍如何使用PaddleHub进行Fine-tune迁移训练图像分类

我们的任务:

一.需要同学们稍微完善一到八八个步骤的代码(两处),使其可以根据选择的预训练模型进行迁移训练。

二.需要自己寻找50张图片,使用预训练模型进行分类识别。 最后,要么使用代码将图片放入不同文件夹,要么使用txt文本分别记录不同分类的中草药文件名,并记录正确率

请务必使用GPU环境, 因为下方的代码基于GPU环境. 请务必使用GPU环境, 因为下方的代码基于GPU环境.

当前平台正在进行普遍赠送, 只要点击此处表单进行填写, 之后再度运行即可获赠.

二、准备工作

首先导入必要的python包

  1. !pip install paddlehub==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
  2. import paddle

 

  1. # -*- coding: utf8 -*-
  2. import paddlehub as hub

 

接下来我们要在PaddleHub中选择合适的预训练模型来Finetune。

请在此处选择前期任务准确率最高的模型

  1. import paddle
  2. paddle.enable_static()
  3. # 选择模型
  4. # 此处代码为加载Hub提供的图像分类的预训练模型
  5. module = hub.Module(name="resnet_v2_50_imagenet")

 

PaddleHub 还有着许多的图像分类预训练模型,更多信息参见PaddleHub官方网站

三、数据准备

此处的数据准备使用的是paddlehub提供的猫狗分类数据集,如果想要使用自定义的数据进行体验,需要自定义数据,请查看适配自定义数据

  1. #上传制作成功的中草药数据集后,使用这段代码去做解压缩,注意路径
  2. !unzip -o /home/aistudio/dataset.zip
  1. # 使用自定义数据集
  2. from paddlehub.dataset.base_cv_dataset import BaseCVDataset
  3. class DemoDataset(BaseCVDataset):
  4. def __init__(self):
  5. # 数据集存放位置
  6. self.dataset_dir = "dataset"
  7. super(DemoDataset, self).__init__(
  8. base_path=self.dataset_dir,
  9. train_list_file="train_list.txt",
  10. validate_list_file="validate_list.txt",
  11. test_list_file="test_list.txt",
  12. #predict_file="predict_list.txt",
  13. label_list_file="label_list.txt",
  14. # label_list=["数据集所有类别"]
  15. )
  16. dataset = DemoDataset()

如果想加载自定义数据集完成迁移学习,详细参见自定义数据集

四、生成Reader

接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。

当我们生成一个图像分类的reader时,需要指定输入图片的大小

  1. data_reader = hub.reader.ImageClassificationReader(
  2. image_width=module.get_expected_image_width(), #预期图片经过reader处理后的图像宽度
  3. image_height=module.get_expected_image_height(),#预期图片经过reader处理后的图像高度
  4. images_mean=module.get_pretrained_images_mean(),#进行图片标准化处理时所减均值。默认为None
  5. images_std=module.get_pretrained_images_std(), #进行图片标准化处理时所除标准差。默认为None
  6. dataset=dataset)

五、选择运行时配置

在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:

  • use_cuda:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True;

  • epoch:要求Finetune的任务只遍历1次训练集;

  • batch_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步;

  • log_interval:每隔10 step打印一次训练日志;

  • eval_interval:每隔50 step在验证集上进行一次性能评估;

  • checkpoint_dir:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中;

  • strategy:使用DefaultFinetuneStrategy策略进行finetune;

更多运行配置,请查看RunConfig

同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategyULMFiTStrategyDefaultFinetuneStrategy等,详细信息参见策略

  1. config = hub.RunConfig(
  2. use_cuda=True, #是否使用GPU训练,默认为False;
  3. num_epoch=4, #Fine-tune的轮数;使用4轮,直到训练准确率达到90%多
  4. checkpoint_dir="cv_finetune_turtorial_demo", #模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
  5. batch_size=32, #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
  6. eval_interval=50, #模型评估的间隔,默认每100个step评估一次验证集;
  7. strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;

六、组建Finetune Task

有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。

由于猫狗分类是一个二分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:

  1. 获取module的上下文环境,包括输入和输出的变量,以及Paddle Program;
  2. 从输出变量中找到特征图提取层feature_map;
  3. 在feature_map后面接入一个全连接层,生成Task;
  1. #获取module的上下文信息包括输入、输出变量以及paddle program
  2. input_dict, output_dict, program = module.context(trainable=True)
  3. #待传入图片格式
  4. img = input_dict["image"]
  5. #从预训练模型的输出变量中找到最后一层特征图,提取最后一层的feature_map
  6. feature_map = output_dict["feature_map"]
  7. #待传入的变量名字列表
  8. feed_list = [img.name]
  9. task = hub.ImageClassifierTask(
  10. data_reader=data_reader, #提供数据的Reader
  11. feed_list=feed_list, #待feed变量的名字列表
  12. feature=feature_map, #输入的特征矩阵
  13. num_classes=dataset.num_labels, #分类任务的类别数量,此处来自于数据集的num_labels
  14. config=config) #运行配置

如果想改变迁移任务组网,详细参见自定义迁移任务

七、开始Finetune

我们选择finetune_and_eval接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。

run_states = task.finetune_and_eval() #通过众多finetune API中的finetune_and_eval接口,可以一边训练网络,一边打印结果

八、使用模型进行预测

当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片

注意:填入测试图片路径后方可开始测试

预测代码如下:

  1. import numpy as np
  2. import os,sys
  3. path="pic"
  4. dirs=os.listdir(path)
  5. num=0
  6. for x in dirs:
  7. m='pic/'+x
  8. dirs[num]=m
  9. num+=1
  10. data =dirs #此处传入需要识别的照片地址
  11. label_map = dataset.label_dict()
  12. index = 0
  13. # get classification result
  14. run_states = task.predict(data=data) #进行预测
  15. results = [run_state.run_results for run_state in run_states] #得到用新模型预测test照片的结果
  16. for batch_result in results:
  17. # get predict index
  18. batch_result = np.argmax(batch_result, axis=2)[0]
  19. for result in batch_result:
  20. index += 1
  21. result = label_map[result]
  22. print("input %i is %s, and the predict result is %s" %
  23. (index, data[index - 1], result))

九、自己寻找50张中草药图片(还是我们5种分类的图片,但是不能使用我们训练图片),然后对50张中草药图片进行分类,并记录准确率。

  1. !pip install paddlehub==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
  2. import paddle
  3. # -*- coding: utf8 -*-
  4. import paddlehub as hub
  5. import paddle
  6. paddle.enable_static()
  7. # 选择模型
  8. # 此处代码为加载Hub提供的图像分类的预训练模型
  9. module = hub.Module(name="resnet_v2_50_imagenet")
  10. # 使用自定义数据集
  11. from paddlehub.dataset.base_cv_dataset import BaseCVDataset
  12. class DemoDataset(BaseCVDataset):
  13. def __init__(self):
  14. # 数据集存放位置
  15. self.dataset_dir = "dataset"
  16. super(DemoDataset, self).__init__(
  17. base_path=self.dataset_dir,
  18. train_list_file="train_list.txt",
  19. validate_list_file="validate_list.txt",
  20. test_list_file="test_list.txt",
  21. #predict_file="predict_list.txt",
  22. label_list_file="label_list.txt",
  23. # label_list=["数据集所有类别"]
  24. )
  25. dataset = DemoDataset()
  26. data_reader = hub.reader.ImageClassificationReader(
  27. image_width=module.get_expected_image_width(), #预期图片经过reader处理后的图像宽度
  28. image_height=module.get_expected_image_height(),#预期图片经过reader处理后的图像高度
  29. images_mean=module.get_pretrained_images_mean(),#进行图片标准化处理时所减均值。默认为None
  30. images_std=module.get_pretrained_images_std(), #进行图片标准化处理时所除标准差。默认为None
  31. dataset=dataset)
  32. config = hub.RunConfig(
  33. use_cuda=True, #是否使用GPU训练,默认为False;
  34. num_epoch=4, #Fine-tune的轮数;使用4轮,直到训练准确率达到90%多
  35. checkpoint_dir="cv_finetune_turtorial_demo", #模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
  36. batch_size=32, #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
  37. eval_interval=50, #模型评估的间隔,默认每100个step评估一次验证集;
  38. strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;
  39. #获取module的上下文信息包括输入、输出变量以及paddle program
  40. input_dict, output_dict, program = module.context(trainable=True)
  41. #待传入图片格式
  42. img = input_dict["image"]
  43. #从预训练模型的输出变量中找到最后一层特征图,提取最后一层的feature_map
  44. feature_map = output_dict["feature_map"]
  45. #待传入的变量名字列表
  46. feed_list = [img.name]
  47. task = hub.ImageClassifierTask(
  48. data_reader=data_reader, #提供数据的Reader
  49. feed_list=feed_list, #待feed变量的名字列表
  50. feature=feature_map, #输入的特征矩阵
  51. num_classes=dataset.num_labels, #分类任务的类别数量,此处来自于数据集的num_labels
  52. config=config) #运行配置
  53. run_states = task.finetune_and_eval() #通过众多finetune API中的finetune_and_eval接口,可以一边训练网络,一边打印结果
  54. import numpy as np
  55. import os,sys
  56. path="pic"
  57. dirs=os.listdir(path)
  58. num=0
  59. for x in dirs:
  60. m='pic/'+x
  61. dirs[num]=m
  62. num+=1
  63. data =dirs #此处传入需要识别的照片地址
  64. label_map = dataset.label_dict()
  65. index = 0
  66. # get classification result
  67. run_states = task.predict(data=data) #进行预测
  68. results = [run_state.run_results for run_state in run_states] #得到用新模型预测test照片的结果
  69. for batch_result in results:
  70. # get predict index
  71. batch_result = np.argmax(batch_result, axis=2)[0]
  72. for result in batch_result:
  73. index += 1
  74. result = label_map[result]
  75. print("input %i is %s, and the predict result is %s" %
  76. (index, data[index - 1], result))

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/137081
推荐阅读
相关标签
  

闽ICP备14008679号