赞
踩
参考原作者:YOLOX训练自己的数据集(超详细)_AI小白一枚的博客-CSDN博客_yolox训练自己的数据集
YOLOX是旷视提出来的,研究者将解耦头、数据增强、无锚点以及标签分类等目标检测领域的优秀进展与 YOLO 进行了巧妙地集成组合,不仅实现了超越 YOLOv3、YOLOv4 和 YOLOv5 的 AP,而且取得了极具竞争力的推理速度。
一、YOLOX安装
1、下载GitHub上的代码
git clone https://github.com/Megvii-BaseDetection/YOLOX
2、安装yolov5所需要的依赖环境
(1)、安装代码依赖的库文件
cd /home/xxx/xxx/xxxr/YOLOX-main
pip3 install -U pip && pip3 install -r requirements.txt
通过setup.py安装一些库文件
输入命令:python3 setup.py develop
(3)、安装apex文件
输入命令:git clone https://github.com/NVIDIA/apex
sudo pip3 install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./
1、数据集预处理
在这里选择使用VOC格式对YOLOX进行训练,处理的图片主要包含三个文件夹,其中Annotations存放的是xml标签数据,JPEGImages存放的是图片数据,ImageSets存放的是训练、验证、测试的txt文件。
2、修改代码
注:类别后都要加逗号,例如“car”后面加了一个逗号“,”。
(3)、修改数据集路径配置
data_dir是数据集的根目录,
images_sets修改为trainval
max_labels表示图片最多的目标数量,设为50。
egg:也可以通过软连接的方式加载数据集训练
ln -s /pgf_api/datasets/VOC2007 ./datasets/VOCdevkit/VOC2007
上述第二目录为根目录下的datasets
将该路径修改为自己txt的路径
(4)、修改exps/example/yolox_voc/yolox_voc_s.py中的get_eval_loader函数。
data_dir是VOC数据集的绝对路径,
images_sets修改为test
(5)、修改不同的网络结构
以YOLOX_I网络为例,比如在exps/default/yolox_I.py中,self.depth=1.0,self.width=1.0。和Yolov5中的不同网络调用方式一样。
为了统一不同的网络结构,继续修改exps/example/yolox_voc/yolox_voc_s.py中的,self.depth和self.width。
再修改yolox/exp/yolox_base.py中的,self.depth和self.width。
目前代码中是训练迭代10个epoch,再对验证集做1次验证,但大白想每迭代1个epoch,即做一个验证,及时看到效果。
在 ./yolox/exp/yolox_base.py中搜索以下参数并修改
- self.max_epoch = 300
- self.print_interval = 10
- self.eval_interval = 10
分别为训练最大epoch、验证间隔epoch
主要对读取验证信息的相关代码进行调整,代码在yolox/data/datasets/voc.py中_do_python_eval函数中。
三、YOLOX训练
1、终端训练
将下载好的yolox_s.pth.tar放到YOLOX文件夹中,打开终端,在终端中输入:
python3 tools/train.py -f exps/example/yolox_voc/yolox_voc_s.py -d 0 -b 64 -c yolox_s.pth.tar
修改tools/train.py中的几个参数
- parser.add_argument("-b", "--batch-size", type=int, default=64, help="batch size")#根据自己机器的配置,设置batch-size的参数,比如设置为64。
- parser.add_argument(
- "-d", "--devices", default=None, type=int, help="device for training"
- )#如果GPU服务器只有1张卡,将devices的default修改为0。
- parser.add_argument(
- "-f",
- "--exp_file",
- default=None,
- type=str,
- help="plz input your experiment description file",
- )#将exp_file的default修改为yolox_voc_s.py的路径(如代码版本更新,可重置路径)。
- parser.add_argument("-c", "--ckpt", default=None, type=str, help="checkpoint file")#如果使用预训练权重,将ckpt的default修改为模型权重的路径。
-
训练走起!
在训练完成后,可以对训练的YOLOX算法模型进行测试,测试文件保存在tools/文件夹下,测试可以运行demo.py和eval.py这两个文件
1、demo测试
- parser.add_argument(
- "--path", default="./assets/dog.jpg", help="path to images or video"
- )
修改网络配置参数
- parser.add_argument(
- "-f",
- "--exp_file",
- default='/home/oem/xxx/path_to_pro_root/YOLOX/exps/example/yolox_voc/yolox_voc_s.py',
- type=str,
- help="pls input your experiment description file",
- )
2、eval.py进行模型量化评估
修改测试模型路径和置信度阈值、nms阈值和测试图像大小,输出模型在测试集的mAP等指标
修改训练后模型的保存地址,以及是否使用GPU进行加速
- parser.add_argument("-c", "--ckpt", default='/home/oem/XXX/PATH_TO_PRO_ROOT/YOLOX/YOLOX_outputs/yolox_voc_s/best_ckpt.pth', type=str, help="ckpt for eval")
- parser.add_argument(
- "--device",
- default="gpu",
- type=str,
- help="device to run our model, can either be cpu or gpu",
- )
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。