赞
踩
yolov5_obb
是 yolov5
目标检测框架的一个变种,支持旋转目标检测任务(Oriented Bounding Boxes,OBB),旨在生成更好拟合具有角度位置的物体预测结果。考虑到目前全网上关于此方面的资料相对较少,鱼龙混杂,不是比较老旧、乱七八糟,就是一言不合就付费查看,交钱看个寂寞,实在是不忍直视。因此,此篇博文旨在提供一个从数据集制作、划分、安装、训练、验证、部署保姆级教程,帮助大家从0到1快速完成项目的上手和开发,满足日常工作和学习的需求。
X-AnyLabeling不仅是一个标注工具,它还是自动数据标注未来的一大飞跃。它的设计不仅简化了标注过程,还集成了尖端的AI模型,以获得更出色的结果。X-AnyLabeling 专注于实际应用,力求提供一个工业级的、功能丰富的工具,可帮助开发人员自动标注和处理各种复杂任务的数据。
在最新的 v2.2.0 版本中,X-AnyLabeling
已经完美支持了旋转框的标注,同时提供全方位的角度显示,实操体验方面也与经典的 roLabelImg
完全保持一致,可无缝迁移,且支持直接导出 DOTA 格式的标签文件,无需转换一键训练。最后,工具中还提供了 yolov5_obb
自定义模型的加载运行,可极大提升数据标注效率,形成快速闭环。
喜欢的小伙伴欢迎点个
star
,持续关注后续更丰富的功能更新。
git clone https://github.com/CVHub520/X-AnyLabeling
cd X-AnyLabeling
pip install -r requirements.txt
# pip install -r requirements-gpu.txt
python anylabeling/app.py
此外,您可以使用训练好的模型批量预标记当前数据集。
导出DOTA标签,请参考此文档。
环境要求
安装开始
a. 创建一个conda虚拟环境并激活它:
conda create -n yolov5_obb python=3.8 -y
source activate yolov5_obb
b. 确保您的CUDA运行时API版本≤CUDA驱动程序版本。 (例如11.3 ≤ 11.4)
nvcc -V
nvidia-smi
c. 根据您的机器环境,根据官方说明安装PyTorch和torchvision,并确保cudatoolkit版本与CUDA运行时API版本相同,例如:
pip install torch==1.12.0+cu116 torchvision==0.13.0+cu116 torchaudio==0.12.0 --extra-index-url https://download.pytorch.org/whl/cu116
nvcc -V
python
>>> import torch
>>> torch.version.cuda
>>> exit()
d. 克隆最新版本的YOLOv5_OBB存储库。
git clone https://github.com/CVHub520/yolov5_obb.git
cd yolov5_obb
e. 安装yolov5-obb。
pip install -r requirements.txt
cd utils/nms_rotated
python setup.py develop # 或者 "pip install -v -e ."
注意:
poly_nms_cuda
CUDA实现重构了一遍,如果你使用的是 hukaixuan19970627 实现的原始版本,大概率是会编译不通过,可参考着修改下,但建议直接使用此修改后的版本,避免冲突。如果您需要分割高分辨率图像并进行评估,建议使用以下工具:
cd yolov5_obb/DOTA_devkit
sudo apt-get install swig
swig -c++ -python polyiou.i
python setup.py build_ext --inplace
准备自定义数据集文件
注意:确保标签格式为[polygon classname difficulty],例如,您可以将difficulty=0,除非另有说明。
x1 y1 x2 y2 x3 y3 x4 y4 classname diffcult
1686.0 1517.0 1695.0 1511.0 1711.0 1535.0 1700.0 1541.0 large-vehicle 1
然后,修改路径参数并运行此[脚本] (./divide.py),如果不需要拆分高分辨率图像。否则,您可以按以下步骤操作。
cd yolov5_obb
python DOTA_devkit/ImgSplit_multi_process.py
确保您的数据集组织在如下所示的目录结构中:
.
└── dataset_demo
├── images
│ └── P0032.png
└── labelTxt
└── P0032.txt
最后,您可以创建一个自定义的数据yaml文件,例如[yolov5obb_demo.yaml] (./data/yolov5obb_demo.yaml)。
注意:
在正式开始训练任务之前,请遵循以下建议:
- 确保将输入分辨率设置为32的倍数。
- 默认情况下,将批处理大小设置为8。如果将其增加到16或更大,请调整框丢失的缩放因子,以帮助收敛
theta
。
要在多个GPU上使用分布式数据并行(DDP)模式进行训练,请参考此shell[脚本] (./sh/ddp_train.sh)。
要训练原始数据集演示,而不分割数据集,请参考以下命令:
python train.py \
--weights weights/yolov5n.pt \
--data data/task.yaml \
--hyp data/hyps/obb/hyp.finetune_dota.yaml \
--epochs 300 \
--batch-size 1 \
--img 1024 \
--device 0 \
--name /path/to/save_dir
python detect.py \
--weights /path/to/*.pt \
--source /path/to/image \
--img 1024 \
--device 0 \
--conf-thres 0.25 \
--iou-thres 0.2 \
--name /path/to/save_dir
注意:有关更多详细信息,请参考[此文档] (./docs/GetStart.md)。
python export.py \
--weights runs/train/task/weights/best.pt \
--data data/task.yaml \
--imgsz 1024 \
--simplify \
--opset 12 \
--include onnx
python deploy/onnxruntime/python/main.py \
--model /path/to/*.onnx \
--image /path/to/image
cd opencv/cpp
.
└── cpp
├── CMakeLists.txt
├── build
├── image
│ ├── demo.jpg
├── main.cpp
├── model
│ └── yolov5m_obb_csl_dotav15.onnx
└── obb
├── include
└── src
注意,建议使用OpenCV版本4.6.0或更新,v4.7.0已成功测试。
Eigen是一个高性能的C++模板库,专用于线性代数运算,支持矩阵和向量操作,具有自然的C++语法、无依赖性和跨平台特性,广泛应用于科学计算、图形学和机器学习等领域。
mkdir build && cd build
cmake ..
make
对于 OpenVINO
或者 TensorRT
或者移动端部署,原理是一样的,只需要改下 engine 那块即可。
同时提供了 *.pt 和 *.onnx 文件,方便大家下载。
今天为大家介绍了构建旋转目标检测任务的整个pipeline
,如果你在这个过程中碰到任何问题,可在 github issue 反馈,需要交流学习的欢迎添加微信:ww10874,备注yolov5_obb
,非诚勿扰。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。