赞
踩
https://www.bilibili.com/video/BV18h411d7by?p=4
https://github.com/bubbliiiing/yolov4-tiny-pytorch
这里用的数据集是VOC2007或者2012
官网下载地址:https://pjreddie.com/projects/pascal-voc-dataset-mirror/
下载好了之后。目录为下图
找到voc_annotation.py文件,修改对应的数据集路径
训练后生成只有2007_train.txt有东西,我们训练的时候只需要这个文件,所以其它的无关紧要,然后就可以开始训练了。
从github下载下来之后就可以先修改训练类别的路径(和数据集所需要的类别保持一致,如果有自己的数据集,就按照VOC格式生成,并载入自己的类别名就好了),然后就可以运行train.py了。
其它的就没有什么可以改的了,如果环境配置也没问题的话,其实最主要就是pytorch的环境,其它的看需要pip install就好了。然后开始训练
这里包括三种预测的方式:1.测试图片 2.测试视频 3.测试摄像头 4.测试图片的fps,修改yolo.py里的这两个位置,一个是你训练好的模型,一个是你的类别文件,然后,打开predict.py,选择你想要预测的方式,就可以开始预测。
我训练50次之后的结果(没有加预训练模型)
测试图片:
这里用Map来进行评估,map就是所有类的AP50-95的平均值,50指的是iou=0.5,95指的是iou=0.95,iou指的是预测框和真实框的交并比。越大说明预测结果越准确。
1.找到
2.修改16,17行,分别是VOC2007中所有sml文件的路径和你想要保存结果的路径(建议别放在你原来的VOC数据集中)
3.如果你想要拥有测试集就将trainval_percent的值修改为0.9,这样里面所有的图片就会有1%生成为测试集
4.然后开始运行voc2yolo4.py,就可以看到生成下面的4个txt文档
5.找到get_gt_txt.py然后修改image_ids所对应的路径,也就是上面我们得到的test.txt。
运行后就可以生成下面这个文件夹a,里面的每个结果是类别+坐标位置
6.生成检测结果的文件夹,为了和原始框做对比,通过get_dr_txt.py,需要注意以下地方。
运行结果如下:
7.直接运行get_map.py就可以得到所有的值得map,以及各类的ap指标。
这是没有进行预训练的mAP,如果进行了预训练应该能提升接近一倍。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。