赞
踩
step:300
3000图片
PP-PicoDet模型特点:
方案选择PP-PicoDet轻量化模型,主要看中PP-PicoDet体积小、速度快、精度较高的优势,非常适合本项目的部署环境和性能要求。同时,飞桨提供的预训练模型也可以最大程度上提升模型的收敛速度和精度。
train_val.py
import os import glob import random import xml.etree.ElementTree as ET path = '/home/aistudio/PaddleDetection/datasets/per_voc' config = { # Annotations path(Annotations 的文件夹路径) "Annotation":"/home/aistudio/PaddleDetection/datasets/per_voc/annotations", # JPEGImages path(JPEGImages 的文件夹路径) "JPEGImages":"/home/aistudio/PaddleDetection/datasets/per_voc/images", } # 划分数据集 # 数据划分比例 # (训练集+验证集)与测试集的比例,默认情况下 (训练集+验证集):测试集 = 9:1 # 按照比例划分数据集 train_per = 0.8 valid_per = 0.2 # test_per = 0.1 data_xml_list = glob.glob(os.path.join(config['Annotation'], '*.xml')) data_jpg_list = glob.glob(os.path.join(config['JPEGImages'], '*.*')) data_xml_list.sort() data_jpg_list.sort() # 生成label标签: label = set() for xml_path in data_xml_list: label = label | set([i.find('name').text for i in ET.parse(xml_path).findall('object')]) data_list=[] for i,j in zip(data_jpg_list,data_xml_list): data_list.append(i+" "+j) data_xml_list=data_list print(data_xml_list) random.seed(666) random.shuffle(data_xml_list) data_length = len(data_xml_list) train_point = int(data_length * train_per) train_valid_point = int(data_length * (train_per + valid_per)) # 生成训练集,验证集, 测试集(8 : 1 : 1) train_list = data_xml_list[:train_point] valid_list = data_xml_list[train_point:train_valid_point] # test_list = data_xml_list[train_valid_point:] # 写入文件中 ftrain = open('/home/aistudio/PaddleDetection/datasets/per_voc/trainval.txt', 'w') fvalid = open('/home/aistudio/PaddleDetection/datasets/per_voc/valid.txt', 'w') # ftest = open('./test.txt', 'w') flabel = open('/home/aistudio/PaddleDetection/datasets/per_voc/label_list.txt', 'w') for i in train_list: ftrain.write(i + "\n") for j in valid_list: fvalid.write(j + "\n") # for k in test_list: # ftest.write(k + "\n") for l in label: flabel.write(l + "\n") ftrain.close() fvalid.close() # ftest.close() flabel.close() # print("总数据量:{}, 训练集:{}, 验证集:{}, 测试集:{}, 标签:{}".format(len(data_xml_list), len(train_list), len(valid_list), len(test_list), len(label))) print("总数据量:{}, 训练集:{}, 验证集:{}, 标签:{}".format(len(data_xml_list), len(train_list), len(valid_list), len(label))) print("done!")
写入标签:person
vi /home/aistudio/PaddleDetection/configs/picodet/legacy_model/picodet_s_320_voc.yml .配置: _BASE_: - '../../datasets/voc.yml' - '../../runtime.yml' - '_base_/picodet_esnet.yml' - '_base_/optimizer_300e.yml' - '_base_/picodet_320_reader.yml' '../../datasets/voc.yml': 关于数据集的配置文件,包含有关VOC数据集的路径、类别信息和其他数据相关的设置。 '../../runtime.yml': 运行时的配置文件,包含有关硬件设置、分布式训练配置等信息。 '_base_/picodet_esnet.yml': 关于 PicODet 模型的架构设置,包含了使用的网络结构、激活函数、锚框设置等。 '_base_/optimizer_300e.yml': 有关优化器的配置,包含有关学习率、权重衰减等优化器相关的超参数设置。 '_base_/picodet_320_reader.yml': 有关数据读取器的配置,包含了数据增强、批次大小等与数据加载相关的设置。 pretrain_weights: 预训练模型路径 weights: 训练模型保存路径 可以通过调节 batch_size 调节模型的收敛速度 (根据自己的显卡算力调节,太大了gpu会内存溢出报错,太小了模型收敛会很慢) 在文件的末尾加上 TrainReader: batch_size: 256
vi /home/aistudio/PaddleDetection/configs/datasets/voc.yml
重要配置项:
python tools/train.py \
-c configs/picodet/legacy_model/picodet_s_320_voc.yml \
--use_vdl=true \
--vdl_log_dir=vdl_dir/person_voc_log \
--eval>person_voc.log 2>&1&
参数:
-c 指定配置文件
--use_vdl=true 使用VisualDL 可视化训练
--vdl_log_dir 指定VisualDL log路径
--eval 在训练过程中将对验证数据集上的模型进行评估
>person_voc.log 2>&1&:这部分命令将标准输出(stdout)和标准错误(stderr)都重定向到一个名为 person_voc.log 的日志文件中。2>&1 确保将 stdout 和 stderr 结合并重定向到指定的日志文件中。末尾的 & 表示在后台运行命令,允许你继续在终端上进行其他任务。
python tools/export_model.py \
-c configs/picodet/legacy_model/picodet_s_320_voc.yml \
-o weights=output/picodet_s_320_voc/best_model.pdparams \
--output_dir=inference_model
参数:
-c 指定配置文件
-o 模型文件路径
--output_dir 导出模型的存放路径
python deploy/python/infer.py \
--model_dir=inference_model/picodet_s_320_voc \
--output=output/test \
--image_file=output/32.jpg \
--threshold=0.5 --device=GPU
参数:
--model_dir 模型目录
--output 输出图片路径
--image_fil 预测图片路径
--threshold=0.5 设置了目标检测的置信度阈值。检测到的目标框的置信度必须大于这个阈值才会被输出
--device=GPU 在GPU上进行推理
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。