当前位置:   article > 正文

PP-PicoDet算法训练行人检测模型

pp-picodet

1,效果图

在这里插入图片描述
step:300
3000图片

2,PP-PicoDet介绍

PP-PicoDet模型特点:
方案选择PP-PicoDet轻量化模型,主要看中PP-PicoDet体积小、速度快、精度较高的优势,非常适合本项目的部署环境和性能要求。同时,飞桨提供的预训练模型也可以最大程度上提升模型的收敛速度和精度。

3,使用飞浆框架训练模型

1,准备好图片和对应的标注文件
2,划分训练集和验证集

train_val.py

import os
import glob
import random
import xml.etree.ElementTree as ET

path = '/home/aistudio/PaddleDetection/datasets/per_voc'

config = {
    # Annotations path(Annotations 的文件夹路径)
    "Annotation":"/home/aistudio/PaddleDetection/datasets/per_voc/annotations",
    # JPEGImages path(JPEGImages 的文件夹路径)
    "JPEGImages":"/home/aistudio/PaddleDetection/datasets/per_voc/images",
}
# 划分数据集

# 数据划分比例
# (训练集+验证集)与测试集的比例,默认情况下 (训练集+验证集):测试集 = 9:1

# 按照比例划分数据集
train_per = 0.8
valid_per = 0.2
# test_per = 0.1

data_xml_list = glob.glob(os.path.join(config['Annotation'], '*.xml'))
data_jpg_list = glob.glob(os.path.join(config['JPEGImages'], '*.*'))
data_xml_list.sort()
data_jpg_list.sort()
# 生成label标签:
label = set()
for xml_path in data_xml_list:
        label = label | set([i.find('name').text for i in ET.parse(xml_path).findall('object')])
data_list=[]
for i,j in zip(data_jpg_list,data_xml_list):
    data_list.append(i+" "+j)
data_xml_list=data_list
print(data_xml_list)
random.seed(666)
random.shuffle(data_xml_list)
data_length = len(data_xml_list)

train_point = int(data_length * train_per)
train_valid_point = int(data_length * (train_per + valid_per))

# 生成训练集,验证集, 测试集(8 : 1 : 1)
train_list = data_xml_list[:train_point]
valid_list = data_xml_list[train_point:train_valid_point]
# test_list = data_xml_list[train_valid_point:]

 


# 写入文件中
ftrain = open('/home/aistudio/PaddleDetection/datasets/per_voc/trainval.txt', 'w')
fvalid = open('/home/aistudio/PaddleDetection/datasets/per_voc/valid.txt', 'w')
# ftest = open('./test.txt', 'w')
flabel = open('/home/aistudio/PaddleDetection/datasets/per_voc/label_list.txt', 'w')

for i in train_list:
        ftrain.write(i + "\n")
for j in valid_list:
        fvalid.write(j + "\n")
# for k in test_list:
#         ftest.write(k + "\n")
for l in label:
        flabel.write(l + "\n")
ftrain.close()
fvalid.close()
# ftest.close()
flabel.close()
# print("总数据量:{}, 训练集:{}, 验证集:{}, 测试集:{}, 标签:{}".format(len(data_xml_list), len(train_list), len(valid_list), len(test_list), len(label)))
print("总数据量:{}, 训练集:{}, 验证集:{}, 标签:{}".format(len(data_xml_list), len(train_list), len(valid_list), len(label)))
print("done!")
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
3,vi label_list.txt

写入标签:person

4,目录结构

在这里插入图片描述

5,修改配置文件
1,picodet_s_320_voc.yml
vi /home/aistudio/PaddleDetection/configs/picodet/legacy_model/picodet_s_320_voc.yml

.配置:
_BASE_:
  - '../../datasets/voc.yml'
  - '../../runtime.yml'
  - '_base_/picodet_esnet.yml'
  - '_base_/optimizer_300e.yml'
  - '_base_/picodet_320_reader.yml'

'../../datasets/voc.yml': 关于数据集的配置文件,包含有关VOC数据集的路径、类别信息和其他数据相关的设置。
'../../runtime.yml': 运行时的配置文件,包含有关硬件设置、分布式训练配置等信息。
'_base_/picodet_esnet.yml': 关于 PicODet 模型的架构设置,包含了使用的网络结构、激活函数、锚框设置等。
'_base_/optimizer_300e.yml': 有关优化器的配置,包含有关学习率、权重衰减等优化器相关的超参数设置。
'_base_/picodet_320_reader.yml': 有关数据读取器的配置,包含了数据增强、批次大小等与数据加载相关的设置。


pretrain_weights:
预训练模型路径

weights:
训练模型保存路径

可以通过调节 batch_size 调节模型的收敛速度
(根据自己的显卡算力调节,太大了gpu会内存溢出报错,太小了模型收敛会很慢)
在文件的末尾加上

TrainReader:
  batch_size: 256

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
2,voc.yml
vi /home/aistudio/PaddleDetection/configs/datasets/voc.yml
  • 1

重要配置项:
在这里插入图片描述

6,训练模型
python tools/train.py \
-c configs/picodet/legacy_model/picodet_s_320_voc.yml  \
--use_vdl=true \
--vdl_log_dir=vdl_dir/person_voc_log \
--eval>person_voc.log 2>&1&
  • 1
  • 2
  • 3
  • 4
  • 5
参数:
-c 指定配置文件
--use_vdl=true 使用VisualDL 可视化训练
--vdl_log_dir 指定VisualDL log路径
--eval 在训练过程中将对验证数据集上的模型进行评估
 >person_voc.log 2>&1&:这部分命令将标准输出(stdout)和标准错误(stderr)都重定向到一个名为 person_voc.log 的日志文件中。2>&1 确保将 stdout 和 stderr 结合并重定向到指定的日志文件中。末尾的 & 表示在后台运行命令,允许你继续在终端上进行其他任务。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
7,导出模型
python tools/export_model.py \
-c configs/picodet/legacy_model/picodet_s_320_voc.yml \
-o weights=output/picodet_s_320_voc/best_model.pdparams \
--output_dir=inference_model
  • 1
  • 2
  • 3
  • 4
参数:
-c 指定配置文件
-o 模型文件路径
--output_dir 导出模型的存放路径
  • 1
  • 2
  • 3
  • 4
8,模型推理,预测单张图片
python deploy/python/infer.py \
--model_dir=inference_model/picodet_s_320_voc \
--output=output/test \
--image_file=output/32.jpg \
--threshold=0.5 --device=GPU
  • 1
  • 2
  • 3
  • 4
  • 5
参数:
--model_dir 模型目录
--output 输出图片路径
--image_fil 预测图片路径
--threshold=0.5 设置了目标检测的置信度阈值。检测到的目标框的置信度必须大于这个阈值才会被输出
 --device=GPU 在GPU上进行推理
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/813871
推荐阅读
相关标签
  

闽ICP备14008679号