当前位置:   article > 正文

[YOLOv8] 缺陷检测之如何读懂训练结果及评估模型训练的效果(含具体例子)_val_batch

val_batch

训练数据集说明

train:113个图像 + 113 个标签 (训练时使用)

val:  24个图像 + 24个标签文件,标签文件中一共标注了117个类别为normal的目标物体 (训练进行验证时使用)

test: 25个图像 + 25个标签(训练阶段不会使用)

data.yaml:

  1. names:
  2. 0: normal
  3. nc: 1
  4. test: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\test
  5. train: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\train
  6. val: D:\YOLOv8Train\v8_train_datasets\mktk_dataset\val

 当前训练集只有一个normal的分类。

训练的python代码

  1. from ultralytics import YOLO
  2. if __name__ == '__main__':
  3. # 加载一个模型
  4. model = YOLO('yolov8n.yaml') # 从YAML建立一个新模型
  5. # 训练模型
  6. results = model.train(
  7. data='D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml',
  8. device='0',
  9. epochs=100, # 训练过程中整个数据集将被迭代多少次,显卡不行你就调小点
  10. batch=8, # 一次看完多少张图片才进行权重更新
  11. verbose=False,
  12. imgsz=640)

训练结果的目录结构

YOLOv8每执行一次训练,都会生成一个新的训练目录来保存结果,训练结果的目录如下:

相关文件介绍

events.out.tfevents.*(训练日志文件

训练的日志文件,可以使用TensorBoard来可视化训练过程中的各种指标。

具体可以参考:

[YOLOv8] 缺陷检测之使用TensorBoard来查看训练结果

labels.jpg(标签统计图)

第1个图是训练集的数据量,每个类别有多少个第2个图是框的尺寸和数量
第3个图是中心点相对于整幅图的位置第4个图是图中目标相对于整幅图的高宽比例

labels_correlogram.jpg(标签相关图)

什么是Correlogram(相关图)?

Correlogram(相关图)是一种用于显示两个信号之间相关性的图形工具。它可以显示两个信号在时间或空间上的变化趋势,以及它们之间的相互关系。

在correlogram中,横坐标表示时间或空间的维度,纵坐标表示两个信号之间的相关性。通常情况下,相关性可以用一个介于-1和1之间的数值来表示,其中1表示完全正相关,-1表示完全负相关,0表示无关。

correlogram可以用于分析不同信号之间的关系,例如音频信号、图像信号、脑电波信号等。它可以帮助我们了解信号之间的相互影响,从而更好地理解数据的特征和模式。

labels相关图体现标签的中心点x,y坐标以及框的高宽之间的关系。

每一行的最后一幅图代表的是x,y,宽和高的分布情况:

图(0,0)表明中心点横坐标x的分布情况;

图(1,1)图表明中心点纵坐标y的分布情况;

图(2,2)图表明框的宽的分布情况;

图(3,3)图表明框的宽的分布情况;


而其他的图则是寻找这4个变量(x,y,width,height)之间的关系。

args.xml(训练使用的超参数)

这个文件包含了训练使用的超参数,包括训练(train)使用参数和每次迭代完成进行验证(val)使用的参数。

进行训练时使用的参数,可以参考:

训练 - Ultralytics YOLOv8 文档

训练过程中进行验证时使用的参数,可以参考: 

验证 - Ultralytics YOLOv8 文档

  1. task: detect # 这是一个目标检测的任务
  2. mode: train # 当前使用的是训练模式,YOLOv8还有val,test等其它模式
  3. model: yolov8n.yaml # 使用的模型配置(里面描述了模型的网络结构等)
  4. data: D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml # 训练使用的数据集
  5. epochs: 100 # 训练需要迭代多少次
  6. patience: 50
  7. batch: 8 # 一次看完多少张图片才进行权重更新
  8. imgsz: 640 # 模型的图像大小
  9. save: true
  10. save_period: -1
  11. cache: false
  12. device: '0' # 使用0号NVIDIA GPU进行训练
  13. workers: 8 # 数据加载的工作线程数(如果DDP则为每个RANK)
  14. project: null
  15. name: train2
  16. exist_ok: false
  17. pretrained: true
  18. optimizer: auto
  19. verbose: false
  20. seed: 0
  21. deterministic: true
  22. single_cls: false
  23. rect: false
  24. cos_lr: false
  25. close_mosaic: 10
  26. resume: false
  27. amp: true
  28. fraction: 1.0
  29. profile: false
  30. freeze: null
  31. overlap_mask: true
  32. mask_ratio: 4
  33. dropout: 0.0
  34. val: true # 训练期间验证/测试
  35. split: val # 用于验证的分割数据集,例如 'val'、'test' 或 'train',参考data: D:/YOLOv8Train/v8_train_datasets/mktk_dataset/data.yaml
  36. save_json: false
  37. save_hybrid: false
  38. conf: null
  39. iou: 0.7 # 验证/测试中使用NMS(非极大抑制)用的交并比(IoU)阈值
  40. max_det: 300
  41. half: false # 使用半精度(FP16)
  42. dnn: false # 使用 OpenCV DNN 进行 ONNX 推理
  43. plots: true
  44. source: null
  45. vid_stride: 1
  46. stream_buffer: false
  47. visualize: false
  48. augment: false
  49. agnostic_nms: false
  50. classes: null
  51. retina_masks: false
  52. show: false
  53. save_frames: false
  54. save_txt: false
  55. save_conf: false
  56. save_crop: false
  57. show_labels: true
  58. show_conf: true
  59. show_boxes: true
  60. line_width: null
  61. format: torchscript
  62. keras: false
  63. optimize: false
  64. int8: false
  65. dynamic: false
  66. simplify: false
  67. opset: null
  68. workspace: 4
  69. nms: false
  70. lr0: 0.01 # 初始学习率
  71. lrf: 0.01 # 最终学习率
  72. momentum: 0.937 #SGD动量/Adam beta1
  73. weight_decay: 0.0005
  74. warmup_epochs: 3.0
  75. warmup_momentum: 0.8
  76. warmup_bias_lr: 0.1
  77. box: 7.5
  78. cls: 0.5
  79. dfl: 1.5 # dfl损失增益
  80. pose: 12.0
  81. kobj: 1.0
  82. label_smoothing: 0.0
  83. nbs: 64
  84. hsv_h: 0.015
  85. hsv_s: 0.7
  86. hsv_v: 0.4
  87. degrees: 0.0
  88. translate: 0.1
  89. scale: 0.5
  90. shear: 0.0
  91. perspective: 0.0
  92. flipud: 0.0
  93. fliplr: 0.5
  94. mosaic: 1.0
  95. mixup: 0.0
  96. copy_paste: 0.0
  97. cfg: null
  98. tracker: botsort.yaml
  99. save_dir: runs\detect\train2 # 训练结果保存的目录

confusion_matrix_normalized.png和confusion_matrix.png(混淆矩阵)

什么是混淆矩阵(Confusion Matrix)?

混淆矩阵(Confusion Matrix)是一种用于评估分类模型性能的工具。它可以显示模型预测结果与实际结果之间的差异,以及各类别之间的分布情况。

混淆矩阵通常由一个二维表格组成,其中行表示实际类别,列表示预测类别。表格中的每个元素表示对应类别的实际数量和预测数量之差,即该类别被正确分类的数量和被错误分类的数量之和。

混淆矩阵的四个基本指标是:

  • 真正例(True Positive,TP):实际为正例且被正确分类的数量。
  • 假正例(False Positive,FP):实际为负例但被错误分类为正例的数量。
  • 真负例(True Negative,TN):实际为负例且被正确分类的数量。
  • 假负例(False Negative,FN):实际为正例但被错误分类为负例的数量。

通过计算这四个指标并绘制混淆矩阵,我们可以得到许多有用的信息,如分类器的准确率、召回率、精确率等。

混淆矩阵的准确率、召回率和精确率是用于评估分类模型性能的三个重要指标。

  • 准确率(Accuracy):指分类器正确预测出真正例+真负例的数量占所有样本数量的比例。计算公式为:准确率 = TP+TN / (TP +TN + FP +FN),其中TP表示真正例,TN表示真负例,FP表示假正例,FN表示假负例。

  • 召回率(Recall):指分类器正确预测出正例的数量占所有实际正例数量的比例。计算公式为:召回率 = TP / (TP + FN),其中TP表示真正例,FN表示假负例。

  • 精确率(Precision):指分类器正确预测出正例的数量占所有被预测为正例的数量的比例。计算公式为:精确率 = TP / (TP + FP),其中TP表示真正例,FP表示假正例。

目标检测中的混淆矩阵与分类非常相近,但是区别就在于分类任务是一张图像被识别为某个分类,而目标检测任务是包含定位与分类两个任务,并且检测的对象是图像中目标类别。 

 

目前最常用的判断一个检测结果是否正确的方式就是计算检测框与真实框的IOU(交并比),然后根据IOU去判别两个框是否匹配。以图2为例,红色的为模型预测的结果,绿色为真实标注框,两个框的IOU大于阈值,就被判定为匹配,同时两个框对应的类别也相同,那么此为正确的检测结果(TP)。

图2中的第二张图虽然IOU大于阈值,但是由于类别不正确,所以被判定为误检(FP)。第三张图的检测框IOU小于阈值,没有与真实的标注框匹配,所以被判定为背景的误检。第四张图没有检测框,因此属于漏检(FN)。

confusion_matrix.png(非归一化):

​​​​​​​

 上图中行是预测类别(y轴),列是真实类别(x轴)。

我们先看列1(normal列),行1的数字“115“”表示val数据集中一共有117个标注为normal类别的物体,其中115个预测为normal,行2的数字“2”表示在val数据集中一共有117个标注为normal类别的物体,其中2个预测为background(背景,也就是你备注为normal类别,但是模型没有识别出来)。

列2(background列),行1的数字“8”表示图像有8个并没有被标注的地方被模型标注为normal类型,也就是误报了,这个值越小越好。

列2行2的数字永远都是空,不需要关注(因为background不是一个标注类别,不需要进行预测)。

confusion_matrix_normalized.png(归一化):

上图中行是预测类别(y轴),列是真实类别(x轴)。该图只是针对confusion_matrix.png中的数据做了归一化处理。

列1行1的数字“0.98“ = 115/(115+2)

列1行的数字“0.02“” = 2/(115+2)

列2行1的数字“1.0” = 8/8,因为目前只有normal一个类别,background(背景)被识别为normal类别,和background(背景)被识别为所有类别都是8。

假如不止一个标注类别,那么计算公式为:被标注为normal的背景数量/ (被标注为normal的背景数量 + 被标注其他类别的背景数量)

混淆矩阵以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。

P_curve.png(精确率-置信度曲线图)

什么是P_curve(Precision-Confidence Curve)?

P_curve(Precision-Confidence Curve)是一种用于评估分类模型性能的工具,它可以显示不同概率阈值或置信度下模型的精确率,并计算出最佳的概率阈值。

P_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示精确率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率如何变化,以及哪个概率阈值下模型的精确率最高。同时,曲线上的点也可以用来计算模型的F1分数等指标。

通过绘制P_curve,我们可以更好地理解分类模型的性能,并选择最佳的概率阈值来对数据进行二分类。此外,P_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和假正例率曲线。

当置信度越大时,类别检测越准确。如果只有confidence很大,才被判断是某一类别,但这样就有可能漏掉一些判定概率较低的真实样本。

R_curve.png(召回率-置信度曲线图)

什么是R_curve?

R_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示召回率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的召回率如何变化,以及哪个阈值下模型的召回率最高。同时,曲线上的点也可以用来计算模型的精确率和F1分数等指标。

通过绘制R_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值来对数据进行二分类。此外,R_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的召回率曲线。

PR_curve.png(精确率-召回率曲线图)

什么是PR_curve(Precision-Recall Curve)?

PR_curve(Precision-Recall Curve)是一种用于评估分类模型性能的工具,它可以显示不同阈值下模型的精确率和召回率,并计算出最佳的阈值。

PR_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示精确率和召回率。在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率和召回率如何变化,以及哪个阈值下模型的精确率和召回率最高。同时,曲线上的点也可以用来计算模型的F1分数等指标。

通过绘制PR_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值来对数据进行二分类。此外,PR_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和召回率曲线。

F1_curve.png(F1-置信度曲线图)

F1_curve是用于评估分类模型性能的工具,它可以显示不同阈值下模型的精确率和召回率,并计算出最佳的阈值。

F1_curve通常由一个曲线组成,其中横坐标表示预测概率或置信度,纵坐标表示F1分数(即精确率和召回率的调和平均数)。

在曲线上,我们可以看到随着预测概率或置信度的增加,模型的精确率和召回率如何变化,以及哪个阈值下模型的F1分数最高。

通过绘制F1_curve,我们可以更好地理解分类模型的性能,并选择最佳的阈值(或置信度)来对数据进行二分类。此外,F1_curve还可以用于比较不同分类器的性能,因为不同的分类器可能会产生不同的精确率和召回率曲线。

train_batchx(训练的批次图)

我训练参数中的batch设置为8,所以一次读取8张图像:

val_batchx_labels和val_batchx_pred(验证批次标签图和预测图)

val_batchx_labels:验证集第x轮的实际标签
val_batchx_pred:验证集第x轮的预测标签

results.txt(文本保存的训练结果)

用文本的方式保存下来的训练结果:

  1. epoch, train/box_loss, train/cls_loss, train/dfl_loss, metrics/precision(B), metrics/recall(B), metrics/mAP50(B), metrics/mAP50-95(B), val/box_loss, val/cls_loss, val/dfl_loss, lr/pg0, lr/pg1, lr/pg2
  2. 1, 5.4501, 8.1686, 5.1887, 0, 0, 0, 0, 5.8788, 5.4434, 4.1657, 0.00028, 0.00028, 0.00028
  3. 2, 4.0754, 5.0531, 4.1822, 0, 0, 0, 0, 5.9011, 5.4558, 4.188, 0.00057426, 0.00057426, 0.00057426
  4. 3, 3.3168, 3.5475, 3.7126, 0, 0, 0, 0, 5.9412, 5.3639, 4.2335, 0.00086258, 0.00086258, 0.00086258
  5. 4, 2.4096, 2.5284, 2.9461, 0, 0, 0, 0, 5.9808, 5.0973, 4.2873, 0.001145, 0.001145, 0.001145
  6. 5, 2.0254, 2.1803, 2.5612, 0, 0, 0, 0, 5.9422, 5.0106, 4.2916, 0.0014214, 0.0014214, 0.0014214
  7. 6, 1.7045, 1.771, 2.2437, 0, 0, 0, 0, 5.6556, 5.2839, 4.1305, 0.0016919, 0.0016919, 0.0016919
  8. 7, 1.6372, 1.7745, 1.9583, 0.50223, 0.52137, 0.42658, 0.18644, 2.4111, 2.6077, 2.663, 0.0018812, 0.0018812, 0.0018812
  9. 8, 1.4712, 1.4935, 1.757, 0.88009, 0.54701, 0.59928, 0.4206, 1.4894, 1.9124, 2.1398, 0.0018812, 0.0018812, 0.0018812
  10. 9, 1.4079, 2.5584, 1.5532, 0.79156, 0.61538, 0.59112, 0.36542, 1.7139, 1.8902, 2.0241, 0.0018614, 0.0018614, 0.0018614
  11. 10, 1.4484, 1.415, 1.5398, 0.84899, 0.64957, 0.69728, 0.39754, 1.7594, 1.7147, 1.9402, 0.0018416, 0.0018416, 0.0018416
  12. 11, 1.2501, 1.2459, 1.5095, 0.91291, 0.70085, 0.8132, 0.49555, 1.498, 1.3064, 1.7721, 0.0018218, 0.0018218, 0.0018218
  13. 12, 1.1784, 1.2409, 1.4665, 0.82795, 0.81197, 0.906, 0.63167, 1.168, 1.3025, 1.5405, 0.001802, 0.001802, 0.001802
  14. 13, 1.1352, 1.2077, 1.3352, 0.81465, 0.9016, 0.93373, 0.70192, 0.99265, 1.1285, 1.4269, 0.0017822, 0.0017822, 0.0017822
  15. 14, 1.1261, 1.1106, 1.294, 0.8329, 0.91453, 0.94456, 0.67565, 1.0928, 0.93893, 1.3884, 0.0017624, 0.0017624, 0.0017624
  16. 15, 1.1048, 1.1019, 1.2472, 0.77608, 0.87179, 0.92095, 0.63006, 1.1491, 1.0015, 1.3084, 0.0017426, 0.0017426, 0.0017426
  17. 16, 1.1967, 1.2021, 1.3363, 0.88673, 0.90598, 0.9532, 0.73239, 0.94629, 0.90897, 1.236, 0.0017228, 0.0017228, 0.0017228
  18. 17, 1.0829, 1.1266, 1.2459, 0.89021, 0.91453, 0.95597, 0.67198, 1.0877, 0.87172, 1.2409, 0.001703, 0.001703, 0.001703
  19. 18, 1.0879, 1.0278, 1.2419, 0.84824, 0.90771, 0.95043, 0.73848, 0.94259, 0.88611, 1.1742, 0.0016832, 0.0016832, 0.0016832
  20. 19, 1.0727, 0.95022, 1.1709, 0.87932, 0.92308, 0.9614, 0.73417, 0.95795, 0.81561, 1.1323, 0.0016634, 0.0016634, 0.0016634
  21. 20, 1.0158, 0.95217, 1.1118, 0.89974, 0.90598, 0.96317, 0.76102, 0.86887, 0.75933, 1.0995, 0.0016436, 0.0016436, 0.0016436
  22. 21, 0.94238, 0.91314, 1.1405, 0.86481, 0.92951, 0.96289, 0.77088, 0.83289, 0.77788, 1.1003, 0.0016238, 0.0016238, 0.0016238
  23. 22, 1.0062, 0.93164, 1.1346, 0.86877, 0.94872, 0.9677, 0.77398, 0.86382, 0.80908, 1.116, 0.001604, 0.001604, 0.001604
  24. 23, 0.97626, 0.91503, 1.1952, 0.89853, 0.95726, 0.97309, 0.77367, 0.86233, 0.84995, 1.1229, 0.0015842, 0.0015842, 0.0015842
  25. 24, 1.0379, 0.94637, 1.1689, 0.91423, 0.95726, 0.98226, 0.76975, 0.82941, 0.95337, 1.1212, 0.0015644, 0.0015644, 0.0015644
  26. 25, 1.0284, 0.9661, 1.159, 0.91737, 0.94888, 0.96973, 0.76237, 0.8186, 0.99804, 1.0932, 0.0015446, 0.0015446, 0.0015446
  27. 26, 0.89224, 1.9702, 0.98398, 0.93165, 0.93204, 0.98198, 0.73264, 0.96756, 0.73302, 1.0981, 0.0015248, 0.0015248, 0.0015248
  28. 27, 1.0345, 0.86709, 1.1124, 0.88091, 0.96581, 0.97425, 0.71149, 0.96592, 0.76875, 1.0975, 0.001505, 0.001505, 0.001505
  29. 28, 1.0277, 0.9062, 1.1106, 0.89733, 0.94017, 0.97061, 0.77793, 0.77169, 0.70074, 1.0397, 0.0014852, 0.0014852, 0.0014852
  30. 29, 0.8953, 0.93698, 1.0723, 0.90738, 0.96581, 0.97181, 0.73234, 0.84639, 0.73083, 1.0462, 0.0014654, 0.0014654, 0.0014654
  31. 30, 0.88328, 0.86723, 1.0355, 0.91103, 0.9627, 0.96829, 0.77238, 0.79438, 0.81591, 1.0542, 0.0014456, 0.0014456, 0.0014456
  32. 31, 0.96472, 0.86873, 1.0984, 0.86534, 0.93162, 0.95852, 0.74645, 0.86607, 0.7209, 1.0538, 0.0014258, 0.0014258, 0.0014258
  33. 32, 0.8868, 0.85751, 1.0689, 0.88484, 0.92308, 0.96385, 0.78549, 0.78943, 0.67391, 1.0052, 0.001406, 0.001406, 0.001406
  34. 33, 0.91231, 0.83933, 1.0472, 0.89772, 0.97525, 0.97188, 0.79804, 0.75838, 0.68814, 1.0058, 0.0013862, 0.0013862, 0.0013862
  35. 34, 0.79013, 1.4453, 0.95499, 0.89238, 0.98291, 0.9732, 0.79683, 0.76638, 0.70148, 1.0255, 0.0013664, 0.0013664, 0.0013664
  36. 35, 0.87141, 0.79367, 1.0284, 0.93291, 0.92308, 0.97157, 0.78625, 0.76836, 0.63578, 1.0218, 0.0013466, 0.0013466, 0.0013466
  37. 36, 0.85941, 0.71078, 1.019, 0.88902, 0.97436, 0.97453, 0.82913, 0.69466, 0.57783, 0.99518, 0.0013268, 0.0013268, 0.0013268
  38. 37, 0.84007, 0.7333, 1.0049, 0.9128, 0.98291, 0.98176, 0.78434, 0.74959, 0.58249, 1.0017, 0.001307, 0.001307, 0.001307
  39. 38, 0.87968, 0.75118, 1.0448, 0.8995, 0.99451, 0.98123, 0.80481, 0.74767, 0.58175, 0.98811, 0.0012872, 0.0012872, 0.0012872
  40. 39, 0.80142, 0.70891, 1.0011, 0.89256, 0.99403, 0.98105, 0.82459, 0.66856, 0.57774, 0.98765, 0.0012674, 0.0012674, 0.0012674
  41. 40, 0.83634, 0.76228, 1.0599, 0.89431, 0.97436, 0.97925, 0.81806, 0.71491, 0.58555, 0.99058, 0.0012476, 0.0012476, 0.0012476
  42. 41, 0.82601, 0.8843, 1.0259, 0.91087, 0.96581, 0.97879, 0.81456, 0.70676, 0.60267, 0.99362, 0.0012278, 0.0012278, 0.0012278
  43. 42, 0.83378, 0.78556, 0.99107, 0.92685, 0.96581, 0.98777, 0.81391, 0.7117, 0.59035, 0.98539, 0.001208, 0.001208, 0.001208
  44. 43, 0.86049, 0.7693, 1.0214, 0.94931, 0.96581, 0.98437, 0.80934, 0.74545, 0.6367, 0.97922, 0.0011882, 0.0011882, 0.0011882
  45. 44, 0.8726, 0.75461, 0.9905, 0.94771, 0.95726, 0.98408, 0.80104, 0.71107, 0.64707, 0.96738, 0.0011684, 0.0011684, 0.0011684
  46. 45, 0.82345, 0.72931, 0.98193, 0.93775, 0.95726, 0.98505, 0.80829, 0.70469, 0.60349, 0.97148, 0.0011486, 0.0011486, 0.0011486
  47. 46, 0.76846, 0.75011, 0.98741, 0.95624, 0.93162, 0.98585, 0.82259, 0.67574, 0.58339, 0.95809, 0.0011288, 0.0011288, 0.0011288
  48. 47, 0.74871, 0.70341, 0.97295, 0.94664, 0.94872, 0.98217, 0.82872, 0.6757, 0.59167, 0.96838, 0.001109, 0.001109, 0.001109
  49. 48, 0.85778, 0.66357, 0.9994, 0.91282, 0.95726, 0.98068, 0.79314, 0.75794, 0.62519, 0.9753, 0.0010892, 0.0010892, 0.0010892
  50. 49, 0.78093, 0.7157, 1.0147, 0.88166, 0.94872, 0.97403, 0.78737, 0.73754, 0.68845, 0.98625, 0.0010694, 0.0010694, 0.0010694
  51. 50, 0.83656, 0.72265, 0.94219, 0.9204, 0.94872, 0.98131, 0.80875, 0.72368, 0.63812, 0.96668, 0.0010496, 0.0010496, 0.0010496
  52. 51, 0.78136, 0.6497, 0.95516, 0.90255, 0.98291, 0.98322, 0.83615, 0.64804, 0.53972, 0.94374, 0.0010298, 0.0010298, 0.0010298
  53. 52, 0.78707, 0.67099, 0.97284, 0.92154, 0.94017, 0.97533, 0.78915, 0.75624, 0.58441, 0.97962, 0.00101, 0.00101, 0.00101
  54. 53, 0.79432, 0.67245, 0.9653, 0.92897, 0.94017, 0.97754, 0.82417, 0.68569, 0.53083, 0.96264, 0.0009902, 0.0009902, 0.0009902
  55. 54, 0.75696, 0.6682, 0.9997, 0.89966, 0.99629, 0.98309, 0.827, 0.66229, 0.49722, 0.95735, 0.0009704, 0.0009704, 0.0009704
  56. 55, 0.88885, 0.79795, 1.0519, 0.89548, 1, 0.98527, 0.80392, 0.73945, 0.52182, 0.97093, 0.0009506, 0.0009506, 0.0009506
  57. 56, 0.75743, 0.66914, 0.96326, 0.92643, 0.96866, 0.98253, 0.84262, 0.63145, 0.51403, 0.95236, 0.0009308, 0.0009308, 0.0009308
  58. 57, 0.75813, 0.60555, 0.95532, 0.89899, 0.99145, 0.97995, 0.82916, 0.68007, 0.53876, 0.95724, 0.000911, 0.000911, 0.000911
  59. 58, 0.76351, 0.70296, 0.96421, 0.93515, 0.94872, 0.98581, 0.83693, 0.67853, 0.51031, 0.95854, 0.0008912, 0.0008912, 0.0008912
  60. 59, 0.76964, 0.6537, 0.94231, 0.92737, 0.98217, 0.98532, 0.82803, 0.67409, 0.49988, 0.94912, 0.0008714, 0.0008714, 0.0008714
  61. 60, 0.78226, 0.74944, 0.97343, 0.92182, 0.98291, 0.98562, 0.83658, 0.67211, 0.5098, 0.94218, 0.0008516, 0.0008516, 0.0008516
  62. 61, 0.71656, 0.60472, 0.94619, 0.90795, 0.96581, 0.98176, 0.83066, 0.65257, 0.52704, 0.94778, 0.0008318, 0.0008318, 0.0008318
  63. 62, 0.71889, 0.6102, 0.96273, 0.91163, 0.96581, 0.97996, 0.81019, 0.69296, 0.53138, 0.96169, 0.000812, 0.000812, 0.000812
  64. 63, 0.83439, 0.69299, 0.99728, 0.93199, 0.95726, 0.98095, 0.78792, 0.77737, 0.57081, 0.98142, 0.0007922, 0.0007922, 0.0007922
  65. 64, 0.73946, 0.67774, 0.98014, 0.93072, 0.96581, 0.98506, 0.82572, 0.65304, 0.50747, 0.94311, 0.0007724, 0.0007724, 0.0007724
  66. 65, 0.79818, 0.64772, 0.96295, 0.91215, 0.97615, 0.98326, 0.83075, 0.66973, 0.52313, 0.9345, 0.0007526, 0.0007526, 0.0007526
  67. 66, 0.72639, 0.6003, 0.94068, 0.91266, 0.9825, 0.98248, 0.84009, 0.60188, 0.48236, 0.92391, 0.0007328, 0.0007328, 0.0007328
  68. 67, 0.76782, 0.61637, 0.94535, 0.95705, 0.95238, 0.98605, 0.81496, 0.7041, 0.50811, 0.9369, 0.000713, 0.000713, 0.000713
  69. 68, 0.81172, 0.68108, 0.9696, 0.90235, 0.97436, 0.97878, 0.80499, 0.75443, 0.59716, 0.96763, 0.0006932, 0.0006932, 0.0006932
  70. 69, 0.7295, 0.59326, 0.95652, 0.92955, 0.94017, 0.97849, 0.82843, 0.66342, 0.55871, 0.93867, 0.0006734, 0.0006734, 0.0006734
  71. 70, 0.72583, 0.58497, 0.94485, 0.9013, 0.97436, 0.9811, 0.82139, 0.66395, 0.53686, 0.93246, 0.0006536, 0.0006536, 0.0006536
  72. 71, 0.77236, 0.62137, 0.9426, 0.89787, 0.96581, 0.97576, 0.79042, 0.68702, 0.58624, 0.94279, 0.0006338, 0.0006338, 0.0006338
  73. 72, 0.81022, 0.66089, 1.0846, 0.90565, 0.94017, 0.97457, 0.8336, 0.65856, 0.65142, 0.94951, 0.000614, 0.000614, 0.000614
  74. 73, 0.73355, 0.65959, 0.96013, 0.87307, 0.92308, 0.96986, 0.81504, 0.67402, 0.65706, 0.95359, 0.0005942, 0.0005942, 0.0005942
  75. 74, 0.7691, 0.59044, 0.93704, 0.88066, 0.94609, 0.97075, 0.82, 0.68028, 0.58858, 0.94418, 0.0005744, 0.0005744, 0.0005744
  76. 75, 0.64868, 0.88686, 0.87528, 0.89813, 0.96581, 0.97657, 0.81824, 0.65622, 0.5032, 0.92634, 0.0005546, 0.0005546, 0.0005546
  77. 76, 0.68983, 0.56601, 0.92554, 0.92652, 0.96998, 0.98348, 0.84205, 0.62061, 0.50043, 0.91645, 0.0005348, 0.0005348, 0.0005348
  78. 77, 0.8022, 0.68978, 1.1325, 0.93445, 0.96581, 0.98776, 0.84616, 0.6067, 0.46005, 0.9209, 0.000515, 0.000515, 0.000515
  79. 78, 0.67173, 0.60208, 0.90424, 0.94292, 0.97436, 0.98938, 0.85085, 0.60631, 0.48082, 0.92087, 0.0004952, 0.0004952, 0.0004952
  80. 79, 0.74669, 0.59236, 1.0236, 0.95012, 0.97689, 0.9879, 0.85535, 0.6104, 0.51088, 0.923, 0.0004754, 0.0004754, 0.0004754
  81. 80, 0.6813, 0.55962, 0.92592, 0.91955, 0.97436, 0.98522, 0.85495, 0.58408, 0.48037, 0.91802, 0.0004556, 0.0004556, 0.0004556
  82. 81, 0.66288, 0.56594, 0.91923, 0.94105, 0.95511, 0.98443, 0.85287, 0.59748, 0.46447, 0.92232, 0.0004358, 0.0004358, 0.0004358
  83. 82, 0.68629, 0.53923, 0.91258, 0.9222, 0.95726, 0.98276, 0.83159, 0.65246, 0.48764, 0.93598, 0.000416, 0.000416, 0.000416
  84. 83, 0.72334, 0.57379, 0.92395, 0.88956, 0.97436, 0.97999, 0.84168, 0.61018, 0.53501, 0.93404, 0.0003962, 0.0003962, 0.0003962
  85. 84, 0.70207, 0.5747, 0.99434, 0.93422, 0.90598, 0.97132, 0.84726, 0.59601, 0.62881, 0.93586, 0.0003764, 0.0003764, 0.0003764
  86. 85, 0.66703, 0.53438, 0.9142, 0.92909, 0.89744, 0.96482, 0.81909, 0.64116, 0.67538, 0.94016, 0.0003566, 0.0003566, 0.0003566
  87. 86, 0.63926, 0.52755, 0.91624, 0.9317, 0.90598, 0.968, 0.81691, 0.64492, 0.65155, 0.9372, 0.0003368, 0.0003368, 0.0003368
  88. 87, 0.63397, 0.85043, 0.85395, 0.91193, 0.97347, 0.98581, 0.84631, 0.61406, 0.54693, 0.92466, 0.000317, 0.000317, 0.000317
  89. 88, 0.66317, 0.53245, 0.90096, 0.94299, 0.94872, 0.9884, 0.85114, 0.61667, 0.51074, 0.92479, 0.0002972, 0.0002972, 0.0002972
  90. 89, 0.62209, 0.86417, 0.87916, 0.94956, 0.96542, 0.98803, 0.84698, 0.59738, 0.50059, 0.91971, 0.0002774, 0.0002774, 0.0002774
  91. 90, 0.65279, 0.52354, 0.91076, 0.94292, 0.96581, 0.98455, 0.84942, 0.59035, 0.50447, 0.9182, 0.0002576, 0.0002576, 0.0002576
  92. 91, 0.76354, 0.62351, 0.98203, 0.91907, 0.97071, 0.98169, 0.8427, 0.62007, 0.50881, 0.9225, 0.0002378, 0.0002378, 0.0002378
  93. 92, 0.78583, 0.80161, 0.91878, 0.91895, 0.96908, 0.98104, 0.84034, 0.65316, 0.55492, 0.92829, 0.000218, 0.000218, 0.000218
  94. 93, 0.76145, 0.64856, 0.9434, 0.91892, 0.96873, 0.98172, 0.84946, 0.62794, 0.5184, 0.91888, 0.0001982, 0.0001982, 0.0001982
  95. 94, 0.88843, 0.78061, 1.0749, 0.93362, 0.96174, 0.98298, 0.85111, 0.62949, 0.48756, 0.91502, 0.0001784, 0.0001784, 0.0001784
  96. 95, 0.7048, 0.59628, 0.98053, 0.9133, 0.99145, 0.98434, 0.84122, 0.62556, 0.44988, 0.91124, 0.0001586, 0.0001586, 0.0001586
  97. 96, 0.66138, 0.55135, 0.94562, 0.90608, 0.98945, 0.98499, 0.84263, 0.59897, 0.44415, 0.90297, 0.0001388, 0.0001388, 0.0001388
  98. 97, 0.69889, 0.57997, 0.99602, 0.90626, 0.99153, 0.98517, 0.8435, 0.5987, 0.43927, 0.90392, 0.000119, 0.000119, 0.000119
  99. 98, 0.65421, 0.57424, 0.95994, 0.9089, 0.99145, 0.98432, 0.85099, 0.6011, 0.44417, 0.90789, 9.92e-05, 9.92e-05, 9.92e-05
  100. 99, 0.61446, 0.53279, 0.91765, 0.90575, 0.98567, 0.98429, 0.84485, 0.60395, 0.4597, 0.91156, 7.94e-05, 7.94e-05, 7.94e-05
  101. 100, 0.60112, 0.53731, 0.90986, 0.90578, 0.98598, 0.98429, 0.84486, 0.61194, 0.47378, 0.91471, 5.96e-05, 5.96e-05, 5.96e-05

results.png(用图像来呈现训练结果)

用图像的方式把results.txt内容呈现出来。

从0~epochs(100)次迭代过程中,重要指标的变化过程:

train/box_loss:训练中,位置误差变化过程;

train/cls_loss:训练中,类别误差变化过程;

train/dfl_loss:训练中,dfl误差变化过程;

val/box_loss:验证中,位置误差变化过程;

val/cls_loss:验证中,类别误差变化过程;

val/dfl_loss:验证中,dfl误差变化过程;

正常情况下,loss会随着迭代的次数增加,慢慢变小。

metircs/precision(B):精度(找对的正类/所有找到的正类);
metircs/recall(B):真实为positive的准确率,即正样本有多少被找出来了(召回了多少)。Recall从真实结果角度出发,描述了测试集中的真实正例有多少被二分类器挑选了出来,即真实的正例有多少被该二分类器召回。

metrics/mAP50(B):是用Precision和Recall作为两轴作图后围成的面积,m-表示平均,AP-Average Precision,50-表示正负样本的IOU阈值为0.5

metrics/mAP50-95(B):表示在不同IOU阈值(从0.5到0.95,步长0.05)(0.5、0.55、0.6、0.65、0.7、0.75、0.8、0.85、0.9、0.95)上的平均mAP。

一般训练结果主要观察精度和召回率波动情况(波动不是很大则训练效果较好),然后观察mAP50 和 mAP50-95 评价训练结果。

weights目录

best.pt:本次训练效果最好的权重文件,一般都会用这个权重文件进行预测(推理)。

last.pt:最后一次迭代,生成的权重文件。

参考资料

YOLO模型结果中的混淆矩阵怎么看 

《机器学习》学习记录和心得

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号