赞
踩
train:113个图像 + 113 个标签 (训练时使用)
val: 24个图像 + 24个标签文件,标签文件中一共标注了117个类别为normal的目标物体 (训练进行验证时使用)
test: 25个图像 + 25个标签(训练阶段不会使用)
data.yaml:
- names:
- 0: normal
- nc: 1
- test: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\test
- train: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\train
- val: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\val
当前训练集只有一个normal的分类。
- from ultralytics import YOLO
-
- if __name__ == '__main__':
- # 加载一个模型
- model = YOLO('yolov8n.yaml') # 从YAML建立一个新模型
- # 训练模型
- results = model.train(
- data='D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml',
- device='0',
- epochs=100, # 训练过程中整个数据集将被迭代多少次,显卡不行你就调小点
- batch=8, # 一次看完多少张图片才进行权重更新
- verbose=False,
- imgsz=640)
YOLOv8每执行一次训练,都会生成一个新的训练目录来保存结果,训练结果的目录如下:
训练的日志文件,可以使用TensorBoard来可视化训练过程中的各种指标。
具体可以参考:
[YOLOv8] 缺陷检测之使用TensorBoard来查看训练结果
第1个图是训练集的数据量,每个类别有多少个 | 第2个图是框的尺寸和数量 |
第3个图是中心点相对于整幅图的位置 | 第4个图是图中目标相对于整幅图的高宽比例 |
什么是Correlogram(相关图)?
Correlogram(相关图)是一种用于显示两个信号之间相关性的图形工具。它可以显示两个信号在时间或空间上的变化趋势,以及它们之间的相互关系。
在correlogram中,横坐标表示时间或空间的维度,纵坐标表示两个信号之间的相关性。通常情况下,相关性可以用一个介于-1和1之间的数值来表示,其中1表示完全正相关,-1表示完全负相关,0表示无关。
correlogram可以用于分析不同信号之间的关系,例如音频信号、图像信号、脑电波信号等。它可以帮助我们了解信号之间的相互影响,从而更好地理解数据的特征和模式。
labels相关图体现标签的中心点x,y坐标以及框的高宽之间的关系。
每一行的最后一幅图代表的是x,y,宽和高的分布情况:
图(0,0)表明中心点横坐标x的分布情况;
图(1,1)图表明中心点纵坐标y的分布情况;
图(2,2)图表明框的宽的分布情况;
图(3,3)图表明框的宽的分布情况;
而其他的图则是寻找这4个变量(x,y,width,height)之间的关系。
这个文件包含了训练使用的超参数,包括训练(train)使用参数和每次迭代完成进行验证(val)使用的参数。
进行训练时使用的参数,可以参考:
训练过程中进行验证时使用的参数,可以参考:
- task: detect # 这是一个目标检测的任务
- mode: train # 当前使用的是训练模式,YOLOv8还有val,test等其它模式
- model: yolov8n.yaml # 使用的模型配置(里面描述了模型的网络结构等)
- data: D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml # 训练使用的数据集
- epochs: 100 # 训练需要迭代多少次
- patience: 50
- batch: 8 # 一次看完多少张图片才进行权重更新
- imgsz: 640 # 模型的图像大小
- save: true
- save_period: -1
- cache: false
- device: '0' # 使用0号NVIDIA GPU进行训练
- workers: 8 # 数据加载的工作线程数(如果DDP则为每个RANK)
- project: null
- name: train2
- exist_ok: false
- pretrained: true
- optimizer: auto
- verbose: false
- seed: 0
- deterministic: true
- single_cls: false
- rect: false
- cos_lr: false
- close_mosaic: 10
- resume: false
- amp: true
- fraction: 1.0
- profile: false
- freeze: null
- overlap_mask: true
- mask_ratio: 4
- dropout: 0.0
- val: true # 训练期间验证/测试
- split: val # 用于验证的分割数据集,例如 'val'、'test' 或 'train',参考data: D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml
- save_json: false
- save_hybrid: false
- conf: null
- iou: 0.7 # 验证/测试中使用NMS(非极大抑制)用的交并比(IoU)阈值
- max_det: 300
- half: false # 使用半精度(FP16)
- dnn: false # 使用 OpenCV DNN 进行 ONNX 推理
- plots: true
- source: null
- vid_stride: 1
- stream_buffer: false
- visualize: false
- augment: false
- agnostic_nms: false
- classes: null
- retina_masks: false
- show: false
- save_frames: false
- save_txt: false
- save_conf: false
- save_crop: false
- show_labels: true
- show_conf: true
- show_boxes: true
- line_width: null
- format: torchscript
- keras: false
- optimize: false
- int8: false
- dynamic: false
- simplify: false
- opset: null
- workspace: 4
- nms: false
- lr0: 0.01 # 初始学习率
- lrf: 0.01 # 最终学习率
- momentum: 0.937 #SGD动量/Adam beta1
- weight_decay: 0.0005
- warmup_epochs: 3.0
- warmup_momentum: 0.8
- warmup_bias_lr: 0.1
- box: 7.5
- cls: 0.5
- dfl: 1.5 # dfl损失增益
- pose: 12.0
- kobj: 1.0
- label_smoothing: 0.0
- nbs: 64
- hsv_h: 0.015
- hsv_s: 0.7
- hsv_v: 0.4
- degrees: 0.0
- translate: 0.1
- scale: 0.5
- shear: 0.0
- perspective: 0.0
- flipud: 0.0
- fliplr: 0.5
- mosaic: 1.0
- mixup: 0.0
- copy_paste: 0.0
- cfg: null
- tracker: botsort.yaml
- save_dir: runs\detect\train2 # 训练结果保存的目录
什么是混淆矩阵(Confusion Matrix)?
混淆矩阵(Confusion Matrix)是一种用于评估分类模型性能的工具。它可以显示模型预测结果与实际结果之间的差异,以及各类别之间的分布情况。
混淆矩阵通常由一个二维表格组成,其中行表示实际类别,列表示预测类别。表格中的每个元素表示对应类别的实际数量和预测数量之差,即该类别被正确分类的数量和被错误分类的数量之和。
混淆矩阵的四个基本指标是:
- 真正例(True Positive,TP):实际为正例且被正确分类的数量。
- 假正例(False Positive,FP):实际为负例但被错误分类为正例的数量。
- 真负例(True Negative,TN):实际为负例且被正确分类的数量。
- 假负例(False Negative,FN):实际为正例但被错误分类为负例的数量。
通过计算这四个指标并绘制混淆矩阵,我们可以得到许多有用的信息,如分类器的准确率、召回率、精确率等。
混淆矩阵的准确率、召回率和精确率是用于评估分类模型性能的三个重要指标。
准确率(Accuracy):指分类器正确预测出真正例+真负例的数量占所有样本数量的比例。计算公式为:准确率 = TP+TN / (TP +TN + FP +FN),其中TP表示真正例,TN表示真负例,FP表示假正例,FN表示假负例。
召回率(Recall):指分类器正确预测出正例的数量占所有实际正例数量的比例。计算公式为:召回率 = TP / (TP + FN),其中TP表示真正例,FN表示假负例。
精确率(Precision):指分类器正确预测出正例的数量占所有被预测为正例的数量的比例。计算公式为:精确率 = TP / (TP + FP),其中TP表示真正例,FP表示假正例。
目标检测中的混淆矩阵与分类非常相近,但是区别就在于分类任务是一张图像被识别为某个分类,而目标检测任务是包含定位与分类两个任务,并且检测的对象是图像中目标类别。
目前最常用的判断一个检测结果是否正确的方式就是计算检测框与真实框的IOU(交并比),然后根据IOU去判别两个框是否匹配。以图2为例,红色的为模型预测的结果,绿色为真实标注框,两个框的IOU大于阈值,就被判定为匹配,同时两个框对应的类别也相同,那么此为正确的检测结果(TP)。
图2中的第二张图虽然IOU大于阈值,但是由于类别不正确,所以被判定为误检(FP)。第三张图的检测框IOU小于阈值,没有与真实的标注框匹配,所以被判定为背景的误检。第四张图没有检测框,因此属于漏检(FN)。
confusion_matrix.png(非归一化):
上图中行是预测类别(y轴),列是真实类别(x轴)。
我们先看列1(normal列),行1的数字“115“”表示val数据集中一共有117个标注为normal类别的物体,其中115个预测为normal,行2的数字“2”表示在val数据集中一共有117个标注为normal类别的物体,其中2个预测为background(背景,也就是你备注为normal类别,但是模型没有识别出来)。
列2(background列),行1的数字“8”表示图像有8个并没有被标注的地方被模型标注为normal类型,也就是误报了,这个值越小越好。
列2行2的数字永远都是空,不需要关注(因为background不是一个标注类别,不需要进行预测)。
confusion_matrix_normalized.png(归一化):
上图中行是预测类别(y轴),列是真实类别(x轴)。该图只是针对confusion_matrix.png中的数据做了归一化处理。
列1行1的数字“0.98“ = 115/(115+2)
列1行的数字“0.02“” = 2/(115+2)
列2行1的数字“1.0” = 8/8,因为目前只有normal一个类别,background(背景)被识别为normal类别,和background(背景)被识别为所有类别都是8。
假如不止一个标注类别,那么计算公式为:被标注为normal的背景数量/ (被标注为normal的背景数量 + 被标注其他类别的背景数量)
混淆矩阵以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。
什么是P_curve(Precision-Confidence Curve)?
P_curve(Precision-Confidence Curve)是一种用于评估分类模型性能的工具,它可以显示不同概率阈值或置信度下模型的精确率,并计算出最佳的概率阈值。
P_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示精确率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率如何变化,以及哪个概率阈值下模型的精确率最高。同时,曲线上的点也可以用来计算模型的F1分数等指标。
通过绘制P_curve,我们可以更好地理解分类模型的性能,并选择最佳的概率阈值来对数据进行二分类。此外,P_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和假正例率曲线。
当置信度越大时,类别检测越准确。如果只有confidence很大,才被判断是某一类别,但这样就有可能漏掉一些判定概率较低的真实样本。
什么是R_curve?
R_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示召回率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的召回率如何变化,以及哪个阈值下模型的召回率最高。同时,曲线上的点也可以用来计算模型的精确率和F1分数等指标。
通过绘制R_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值来对数据进行二分类。此外,R_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的召回率曲线。
什么是PR_curve(Precision-Recall Curve)?
PR_curve(Precision-Recall Curve)是一种用于评估分类模型性能的工具,它可以显示不同阈值下模型的精确率和召回率,并计算出最佳的阈值。
PR_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示精确率和召回率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率和召回率如何变化,以及哪个阈值下模型的精确率和召回率最高。同时,曲线上的点也可以用来计算模型的F1分数等指标。
通过绘制PR_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值来对数据进行二分类。此外,PR_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和召回率曲线。
F1_curve是用于评估分类模型性能的工具,它可以显示不同阈值下模型的精确率和召回率,并计算出最佳的阈值。
F1_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示F1分数(即精确率和召回率的调和平均数)。
在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率和召回率如何变化,以及哪个阈值下模型的F1分数最高。
通过绘制F1_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值(或置信度)来对数据进行二分类。此外,F1_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和召回率曲线。
我训练参数中的batch设置为8,所以一次读取8张图像:
val_batchx_labels:验证集第x轮的实际标签
val_batchx_pred:验证集第x轮的预测标签
用文本的方式保存下来的训练结果:
- epoch, train/box_loss, train/cls_loss, train/dfl_loss, metrics/precision(B), metrics/recall(B), metrics/mAP50(B), metrics/mAP50-95(B), val/box_loss, val/cls_loss, val/dfl_loss, lr/pg0, lr/pg1, lr/pg2
- 1, 5.4501, 8.1686, 5.1887, 0, 0, 0, 0, 5.8788, 5.4434, 4.1657, 0.00028, 0.00028, 0.00028
- 2, 4.0754, 5.0531, 4.1822, 0, 0, 0, 0, 5.9011, 5.4558, 4.188, 0.00057426, 0.00057426, 0.00057426
- 3, 3.3168, 3.5475, 3.7126, 0, 0, 0, 0, 5.9412, 5.3639, 4.2335, 0.00086258, 0.00086258, 0.00086258
- 4, 2.4096, 2.5284, 2.9461, 0, 0, 0, 0, 5.9808, 5.0973, 4.2873, 0.001145, 0.001145, 0.001145
- 5, 2.0254, 2.1803, 2.5612, 0, 0, 0, 0, 5.9422, 5.0106, 4.2916, 0.0014214, 0.0014214, 0.0014214
- 6, 1.7045, 1.771, 2.2437, 0, 0, 0, 0, 5.6556, 5.2839, 4.1305, 0.0016919, 0.0016919, 0.0016919
- 7, 1.6372, 1.7745, 1.9583, 0.50223, 0.52137, 0.42658, 0.18644, 2.4111, 2.6077, 2.663, 0.0018812, 0.0018812, 0.0018812
- 8, 1.4712, 1.4935, 1.757, 0.88009, 0.54701, 0.59928, 0.4206, 1.4894, 1.9124, 2.1398, 0.0018812, 0.0018812, 0.0018812
- 9, 1.4079, 2.5584, 1.5532, 0.79156, 0.61538, 0.59112, 0.36542, 1.7139, 1.8902, 2.0241, 0.0018614, 0.0018614, 0.0018614
- 10, 1.4484, 1.415, 1.5398, 0.84899, 0.64957, 0.69728, 0.39754, 1.7594, 1.7147, 1.9402, 0.0018416, 0.0018416, 0.0018416
- 11, 1.2501, 1.2459, 1.5095, 0.91291, 0.70085, 0.8132, 0.49555, 1.498, 1.3064, 1.7721, 0.0018218, 0.0018218, 0.0018218
- 12, 1.1784, 1.2409, 1.4665, 0.82795, 0.81197, 0.906, 0.63167, 1.168, 1.3025, 1.5405, 0.001802, 0.001802, 0.001802
- 13, 1.1352, 1.2077, 1.3352, 0.81465, 0.9016, 0.93373, 0.70192, 0.99265, 1.1285, 1.4269, 0.0017822, 0.0017822, 0.0017822
- 14, 1.1261, 1.1106, 1.294, 0.8329, 0.91453, 0.94456, 0.67565, 1.0928, 0.93893, 1.3884, 0.0017624, 0.0017624, 0.0017624
- 15, 1.1048, 1.1019, 1.2472, 0.77608, 0.87179, 0.92095, 0.63006, 1.1491, 1.0015, 1.3084, 0.0017426, 0.0017426, 0.0017426
- 16, 1.1967, 1.2021, 1.3363, 0.88673, 0.90598, 0.9532, 0.73239, 0.94629, 0.90897, 1.236, 0.0017228, 0.0017228, 0.0017228
- 17, 1.0829, 1.1266, 1.2459, 0.89021, 0.91453, 0.95597, 0.67198, 1.0877, 0.87172, 1.2409, 0.001703, 0.001703, 0.001703
- 18, 1.0879, 1.0278, 1.2419, 0.84824, 0.90771, 0.95043, 0.73848, 0.94259, 0.88611, 1.1742, 0.0016832, 0.0016832, 0.0016832
- 19, 1.0727, 0.95022, 1.1709, 0.87932, 0.92308, 0.9614, 0.73417, 0.95795, 0.81561, 1.1323, 0.0016634, 0.0016634, 0.0016634
- 20, 1.0158, 0.95217, 1.1118, 0.89974, 0.90598, 0.96317, 0.76102, 0.86887, 0.75933, 1.0995, 0.0016436, 0.0016436, 0.0016436
- 21, 0.94238, 0.91314, 1.1405, 0.86481, 0.92951, 0.96289, 0.77088, 0.83289, 0.77788, 1.1003, 0.0016238, 0.0016238, 0.0016238
- 22, 1.0062, 0.93164, 1.1346, 0.86877, 0.94872, 0.9677, 0.77398, 0.86382, 0.80908, 1.116, 0.001604, 0.001604, 0.001604
- 23, 0.97626, 0.91503, 1.1952, 0.89853, 0.95726, 0.97309, 0.77367, 0.86233, 0.84995, 1.1229, 0.0015842, 0.0015842, 0.0015842
- 24, 1.0379, 0.94637, 1.1689, 0.91423, 0.95726, 0.98226, 0.76975, 0.82941, 0.95337, 1.1212, 0.0015644, 0.0015644, 0.0015644
- 25, 1.0284, 0.9661, 1.159, 0.91737, 0.94888, 0.96973, 0.76237, 0.8186, 0.99804, 1.0932, 0.0015446, 0.0015446, 0.0015446
- 26, 0.89224, 1.9702, 0.98398, 0.93165, 0.93204, 0.98198, 0.73264, 0.96756, 0.73302, 1.0981, 0.0015248, 0.0015248, 0.0015248
- 27, 1.0345, 0.86709, 1.1124, 0.88091, 0.96581, 0.97425, 0.71149, 0.96592, 0.76875, 1.0975, 0.001505, 0.001505, 0.001505
- 28, 1.0277, 0.9062, 1.1106, 0.89733, 0.94017, 0.97061, 0.77793, 0.77169, 0.70074, 1.0397, 0.0014852, 0.0014852, 0.0014852
- 29, 0.8953, 0.93698, 1.0723, 0.90738, 0.96581, 0.97181, 0.73234, 0.84639, 0.73083, 1.0462, 0.0014654, 0.0014654, 0.0014654
- 30, 0.88328, 0.86723, 1.0355, 0.91103, 0.9627, 0.96829, 0.77238, 0.79438, 0.81591, 1.0542, 0.0014456, 0.0014456, 0.0014456
- 31, 0.96472, 0.86873, 1.0984, 0.86534, 0.93162, 0.95852, 0.74645, 0.86607, 0.7209, 1.0538, 0.0014258, 0.0014258, 0.0014258
- 32, 0.8868, 0.85751, 1.0689, 0.88484, 0.92308, 0.96385, 0.78549, 0.78943, 0.67391, 1.0052, 0.001406, 0.001406, 0.001406
- 33, 0.91231, 0.83933, 1.0472, 0.89772, 0.97525, 0.97188, 0.79804, 0.75838, 0.68814, 1.0058, 0.0013862, 0.0013862, 0.0013862
- 34, 0.79013, 1.4453, 0.95499, 0.89238, 0.98291, 0.9732, 0.79683, 0.76638, 0.70148, 1.0255, 0.0013664, 0.0013664, 0.0013664
- 35, 0.87141, 0.79367, 1.0284, 0.93291, 0.92308, 0.97157, 0.78625, 0.76836, 0.63578, 1.0218, 0.0013466, 0.0013466, 0.0013466
- 36, 0.85941, 0.71078, 1.019, 0.88902, 0.97436, 0.97453, 0.82913, 0.69466, 0.57783, 0.99518, 0.0013268, 0.0013268, 0.0013268
- 37, 0.84007, 0.7333, 1.0049, 0.9128, 0.98291, 0.98176, 0.78434, 0.74959, 0.58249, 1.0017, 0.001307, 0.001307, 0.001307
- 38, 0.87968, 0.75118, 1.0448, 0.8995, 0.99451, 0.98123, 0.80481, 0.74767, 0.58175, 0.98811, 0.0012872, 0.0012872, 0.0012872
- 39, 0.80142, 0.70891, 1.0011, 0.89256, 0.99403, 0.98105, 0.82459, 0.66856, 0.57774, 0.98765, 0.0012674, 0.0012674, 0.0012674
- 40, 0.83634, 0.76228, 1.0599, 0.89431, 0.97436, 0.97925, 0.81806, 0.71491, 0.58555, 0.99058, 0.0012476, 0.0012476, 0.0012476
- 41, 0.82601, 0.8843, 1.0259, 0.91087, 0.96581, 0.97879, 0.81456, 0.70676, 0.60267, 0.99362, 0.0012278, 0.0012278, 0.0012278
- 42, 0.83378, 0.78556, 0.99107, 0.92685, 0.96581, 0.98777, 0.81391, 0.7117, 0.59035, 0.98539, 0.001208, 0.001208, 0.001208
- 43, 0.86049, 0.7693, 1.0214, 0.94931, 0.96581, 0.98437, 0.80934, 0.74545, 0.6367, 0.97922, 0.0011882, 0.0011882, 0.0011882
- 44, 0.8726, 0.75461, 0.9905, 0.94771, 0.95726, 0.98408, 0.80104, 0.71107, 0.64707, 0.96738, 0.0011684, 0.0011684, 0.0011684
- 45, 0.82345, 0.72931, 0.98193, 0.93775, 0.95726, 0.98505, 0.80829, 0.70469, 0.60349, 0.97148, 0.0011486, 0.0011486, 0.0011486
- 46, 0.76846, 0.75011, 0.98741, 0.95624, 0.93162, 0.98585, 0.82259, 0.67574, 0.58339, 0.95809, 0.0011288, 0.0011288, 0.0011288
- 47, 0.74871, 0.70341, 0.97295, 0.94664, 0.94872, 0.98217, 0.82872, 0.6757, 0.59167, 0.96838, 0.001109, 0.001109, 0.001109
- 48, 0.85778, 0.66357, 0.9994, 0.91282, 0.95726, 0.98068, 0.79314, 0.75794, 0.62519, 0.9753, 0.0010892, 0.0010892, 0.0010892
- 49, 0.78093, 0.7157, 1.0147, 0.88166, 0.94872, 0.97403, 0.78737, 0.73754, 0.68845, 0.98625, 0.0010694, 0.0010694, 0.0010694
- 50, 0.83656, 0.72265, 0.94219, 0.9204, 0.94872, 0.98131, 0.80875, 0.72368, 0.63812, 0.96668, 0.0010496, 0.0010496, 0.0010496
- 51, 0.78136, 0.6497, 0.95516, 0.90255, 0.98291, 0.98322, 0.83615, 0.64804, 0.53972, 0.94374, 0.0010298, 0.0010298, 0.0010298
- 52, 0.78707, 0.67099, 0.97284, 0.92154, 0.94017, 0.97533, 0.78915, 0.75624, 0.58441, 0.97962, 0.00101, 0.00101, 0.00101
- 53, 0.79432, 0.67245, 0.9653, 0.92897, 0.94017, 0.97754, 0.82417, 0.68569, 0.53083, 0.96264, 0.0009902, 0.0009902, 0.0009902
- 54, 0.75696, 0.6682, 0.9997, 0.89966, 0.99629, 0.98309, 0.827, 0.66229, 0.49722, 0.95735, 0.0009704, 0.0009704, 0.0009704
- 55, 0.88885, 0.79795, 1.0519, 0.89548, 1, 0.98527, 0.80392, 0.73945, 0.52182, 0.97093, 0.0009506, 0.0009506, 0.0009506
- 56, 0.75743, 0.66914, 0.96326, 0.92643, 0.96866, 0.98253, 0.84262, 0.63145, 0.51403, 0.95236, 0.0009308, 0.0009308, 0.0009308
- 57, 0.75813, 0.60555, 0.95532, 0.89899, 0.99145, 0.97995, 0.82916, 0.68007, 0.53876, 0.95724, 0.000911, 0.000911, 0.000911
- 58, 0.76351, 0.70296, 0.96421, 0.93515, 0.94872, 0.98581, 0.83693, 0.67853, 0.51031, 0.95854, 0.0008912, 0.0008912, 0.0008912
- 59, 0.76964, 0.6537, 0.94231, 0.92737, 0.98217, 0.98532, 0.82803, 0.67409, 0.49988, 0.94912, 0.0008714, 0.0008714, 0.0008714
- 60, 0.78226, 0.74944, 0.97343, 0.92182, 0.98291, 0.98562, 0.83658, 0.67211, 0.5098, 0.94218, 0.0008516, 0.0008516, 0.0008516
- 61, 0.71656, 0.60472, 0.94619, 0.90795, 0.96581, 0.98176, 0.83066, 0.65257, 0.52704, 0.94778, 0.0008318, 0.0008318, 0.0008318
- 62, 0.71889, 0.6102, 0.96273, 0.91163, 0.96581, 0.97996, 0.81019, 0.69296, 0.53138, 0.96169, 0.000812, 0.000812, 0.000812
- 63, 0.83439, 0.69299, 0.99728, 0.93199, 0.95726, 0.98095, 0.78792, 0.77737, 0.57081, 0.98142, 0.0007922, 0.0007922, 0.0007922
- 64, 0.73946, 0.67774, 0.98014, 0.93072, 0.96581, 0.98506, 0.82572, 0.65304, 0.50747, 0.94311, 0.0007724, 0.0007724, 0.0007724
- 65, 0.79818, 0.64772, 0.96295, 0.91215, 0.97615, 0.98326, 0.83075, 0.66973, 0.52313, 0.9345, 0.0007526, 0.0007526, 0.0007526
- 66, 0.72639, 0.6003, 0.94068, 0.91266, 0.9825, 0.98248, 0.84009, 0.60188, 0.48236, 0.92391, 0.0007328, 0.0007328, 0.0007328
- 67, 0.76782, 0.61637, 0.94535, 0.95705, 0.95238, 0.98605, 0.81496, 0.7041, 0.50811, 0.9369, 0.000713, 0.000713, 0.000713
- 68, 0.81172, 0.68108, 0.9696, 0.90235, 0.97436, 0.97878, 0.80499, 0.75443, 0.59716, 0.96763, 0.0006932, 0.0006932, 0.0006932
- 69, 0.7295, 0.59326, 0.95652, 0.92955, 0.94017, 0.97849, 0.82843, 0.66342, 0.55871, 0.93867, 0.0006734, 0.0006734, 0.0006734
- 70, 0.72583, 0.58497, 0.94485, 0.9013, 0.97436, 0.9811, 0.82139, 0.66395, 0.53686, 0.93246, 0.0006536, 0.0006536, 0.0006536
- 71, 0.77236, 0.62137, 0.9426, 0.89787, 0.96581, 0.97576, 0.79042, 0.68702, 0.58624, 0.94279, 0.0006338, 0.0006338, 0.0006338
- 72, 0.81022, 0.66089, 1.0846, 0.90565, 0.94017, 0.97457, 0.8336, 0.65856, 0.65142, 0.94951, 0.000614, 0.000614, 0.000614
- 73, 0.73355, 0.65959, 0.96013, 0.87307, 0.92308, 0.96986, 0.81504, 0.67402, 0.65706, 0.95359, 0.0005942, 0.0005942, 0.0005942
- 74, 0.7691, 0.59044, 0.93704, 0.88066, 0.94609, 0.97075, 0.82, 0.68028, 0.58858, 0.94418, 0.0005744, 0.0005744, 0.0005744
- 75, 0.64868, 0.88686, 0.87528, 0.89813, 0.96581, 0.97657, 0.81824, 0.65622, 0.5032, 0.92634, 0.0005546, 0.0005546, 0.0005546
- 76, 0.68983, 0.56601, 0.92554, 0.92652, 0.96998, 0.98348, 0.84205, 0.62061, 0.50043, 0.91645, 0.0005348, 0.0005348, 0.0005348
- 77, 0.8022, 0.68978, 1.1325, 0.93445, 0.96581, 0.98776, 0.84616, 0.6067, 0.46005, 0.9209, 0.000515, 0.000515, 0.000515
- 78, 0.67173, 0.60208, 0.90424, 0.94292, 0.97436, 0.98938, 0.85085, 0.60631, 0.48082, 0.92087, 0.0004952, 0.0004952, 0.0004952
- 79, 0.74669, 0.59236, 1.0236, 0.95012, 0.97689, 0.9879, 0.85535, 0.6104, 0.51088, 0.923, 0.0004754, 0.0004754, 0.0004754
- 80, 0.6813, 0.55962, 0.92592, 0.91955, 0.97436, 0.98522, 0.85495, 0.58408, 0.48037, 0.91802, 0.0004556, 0.0004556, 0.0004556
- 81, 0.66288, 0.56594, 0.91923, 0.94105, 0.95511, 0.98443, 0.85287, 0.59748, 0.46447, 0.92232, 0.0004358, 0.0004358, 0.0004358
- 82, 0.68629, 0.53923, 0.91258, 0.9222, 0.95726, 0.98276, 0.83159, 0.65246, 0.48764, 0.93598, 0.000416, 0.000416, 0.000416
- 83, 0.72334, 0.57379, 0.92395, 0.88956, 0.97436, 0.97999, 0.84168, 0.61018, 0.53501, 0.93404, 0.0003962, 0.0003962, 0.0003962
- 84, 0.70207, 0.5747, 0.99434, 0.93422, 0.90598, 0.97132, 0.84726, 0.59601, 0.62881, 0.93586, 0.0003764, 0.0003764, 0.0003764
- 85, 0.66703, 0.53438, 0.9142, 0.92909, 0.89744, 0.96482, 0.81909, 0.64116, 0.67538, 0.94016, 0.0003566, 0.0003566, 0.0003566
- 86, 0.63926, 0.52755, 0.91624, 0.9317, 0.90598, 0.968, 0.81691, 0.64492, 0.65155, 0.9372, 0.0003368, 0.0003368, 0.0003368
- 87, 0.63397, 0.85043, 0.85395, 0.91193, 0.97347, 0.98581, 0.84631, 0.61406, 0.54693, 0.92466, 0.000317, 0.000317, 0.000317
- 88, 0.66317, 0.53245, 0.90096, 0.94299, 0.94872, 0.9884, 0.85114, 0.61667, 0.51074, 0.92479, 0.0002972, 0.0002972, 0.0002972
- 89, 0.62209, 0.86417, 0.87916, 0.94956, 0.96542, 0.98803, 0.84698, 0.59738, 0.50059, 0.91971, 0.0002774, 0.0002774, 0.0002774
- 90, 0.65279, 0.52354, 0.91076, 0.94292, 0.96581, 0.98455, 0.84942, 0.59035, 0.50447, 0.9182, 0.0002576, 0.0002576, 0.0002576
- 91, 0.76354, 0.62351, 0.98203, 0.91907, 0.97071, 0.98169, 0.8427, 0.62007, 0.50881, 0.9225, 0.0002378, 0.0002378, 0.0002378
- 92, 0.78583, 0.80161, 0.91878, 0.91895, 0.96908, 0.98104, 0.84034, 0.65316, 0.55492, 0.92829, 0.000218, 0.000218, 0.000218
- 93, 0.76145, 0.64856, 0.9434, 0.91892, 0.96873, 0.98172, 0.84946, 0.62794, 0.5184, 0.91888, 0.0001982, 0.0001982, 0.0001982
- 94, 0.88843, 0.78061, 1.0749, 0.93362, 0.96174, 0.98298, 0.85111, 0.62949, 0.48756, 0.91502, 0.0001784, 0.0001784, 0.0001784
- 95, 0.7048, 0.59628, 0.98053, 0.9133, 0.99145, 0.98434, 0.84122, 0.62556, 0.44988, 0.91124, 0.0001586, 0.0001586, 0.0001586
- 96, 0.66138, 0.55135, 0.94562, 0.90608, 0.98945, 0.98499, 0.84263, 0.59897, 0.44415, 0.90297, 0.0001388, 0.0001388, 0.0001388
- 97, 0.69889, 0.57997, 0.99602, 0.90626, 0.99153, 0.98517, 0.8435, 0.5987, 0.43927, 0.90392, 0.000119, 0.000119, 0.000119
- 98, 0.65421, 0.57424, 0.95994, 0.9089, 0.99145, 0.98432, 0.85099, 0.6011, 0.44417, 0.90789, 9.92e-05, 9.92e-05, 9.92e-05
- 99, 0.61446, 0.53279, 0.91765, 0.90575, 0.98567, 0.98429, 0.84485, 0.60395, 0.4597, 0.91156, 7.94e-05, 7.94e-05, 7.94e-05
- 100, 0.60112, 0.53731, 0.90986, 0.90578, 0.98598, 0.98429, 0.84486, 0.61194, 0.47378, 0.91471, 5.96e-05, 5.96e-05, 5.96e-05
用图像的方式把results.txt内容呈现出来。
从0~epochs(100)次迭代过程中,重要指标的变化过程:
train/box_loss:训练中,位置误差变化过程;
train/cls_loss:训练中,类别误差变化过程;
train/dfl_loss:训练中,dfl误差变化过程;
val/box_loss:验证中,位置误差变化过程;
val/cls_loss:验证中,类别误差变化过程;
val/dfl_loss:验证中,dfl误差变化过程;
正常情况下,loss会随着迭代的次数增加,慢慢变小。
metircs/precision(B):精度(找对的正类/所有找到的正类);
metircs/recall(B):真实为positive的准确率,即正样本有多少被找出来了(召回了多少)。Recall从真实结果角度出发,描述了测试集中的真实正例有多少被二分类器挑选了出来,即真实的正例有多少被该二分类器召回。
metrics/mAP50(B):是用Precision和Recall作为两轴作图后围成的面积,m-表示平均,AP-Average Precision,50-表示正负样本的IOU阈值为0.5
metrics/mAP50-95(B):表示在不同IOU阈值(从0.5到0.95,步长0.05)(0.5、0.55、0.6、0.65、0.7、0.75、0.8、0.85、0.9、0.95)上的平均mAP。
一般训练结果主要观察精度和召回率波动情况(波动不是很大则训练效果较好),然后观察mAP50 和 mAP50-95 评价训练结果。
best.pt:本次训练效果最好的权重文件,一般都会用这个权重文件进行预测(推理)。
last.pt:最后一次迭代,生成的权重文件。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。