赞
踩
相信很多刚刚接触目标检测系列算法小伙伴跑深度学习算法时会有许多困惑,比如训练得出的loss曲线有什么意义?训练的一些参数要如何设置选择?选择哪个算法模型作为baseline、选择哪个参数量/复杂度/深度的模型进行训练最为合适?
本文将主要从训练过程中、训练得出的结果文件来进行阐述如何对自己的模型进行精进。如何对自己的模型进行调参分析。
当然,本文在阐述的时候可能会存在结论不全的情况,若你有相关疑问,欢迎在评论区批评指正、互相交流!我也会在后续持续进行更新完来完善该文章,欢迎关注。
在训练结束后,通常会输出loss曲线,它是一种工具,能够帮助我们用以判断训练的好坏。
有些初学的小伙伴可能会将loss曲线当成影响指标的原因,但注意此处不能顾名思义,你在训练过程中若看见两轮输出的loss数值均正常下降,而评估的结果却不一定会变好,它只能作为一种分析的手段,没有绝对性。
以yolov5/v7为例,loss曲线通常输出trainloss和valloss
输出的loss曲线通常会有以下特征。
现象描述:train和val的曲线均趋于平缓,指标的值也趋于平缓,虽然train看起来还未收敛(主要原因是我没认真去调~)。同时,示例图片有些波动,但这其实是数据集较少的原因导致,此情况见第6点。
现象描述:曲线没有下降到趋于平缓的情况。此处的val乍一看开始是下降了然后趋于平缓,但这是视觉上的问题,本质上忽略掉前几个epoch则可发现val仍在下降,且下降地不完全明显。同时,四个指标的趋势仍在上升,将其数据单独拿出则可明白仍未收敛。
解决方法:加大epoch、加大batchsize、换用更深的模型、很难拟合的情况尝试加载预训练权重、加大数据集评估结果较差的那个类别的图片数量。
现象描述:如图,指标的曲线正常下降趋于平缓甚至逐渐降低,而val由正常下降再平缓再趋于上升,这是一个典型的过拟合情况。
解决方法:减少epoch、减少batchsize、增加数据集数据量(一般不这样做)、减小网络复杂度、减小层数、更换参数量较低的模型如YOLOv5x转YOLOv5s测试。
现象描述:乍一看曲线很平滑,也趋于收敛。但仔细观察,在约第20个epoch时,模型快速收敛,这或许说明采用的模型深度太深、数据集太过简单(也侧面反映了模型深度深过于复杂)、batchsize过高。
解决方法:降低batchsize、换参数量、深度较小的模型或对某些模块进行删除修改或替换轻量化模块等、降低学习率。
若你的数据集本来就很简单,则属于正常收敛,但若你的数据集并不小,如有几千、几万张,则考虑上述解决方法。
(此处就不配图了,博主暂时没遇到这种情况,请根据现象描述进行判断)
现象描述:曲线乱跳、没有指标输出(均为0)
这种情况的train和val的曲线趋势相同,几乎都是一条水平的直线,并且虽然花了时间训练、训练过程中没有报什么错,但模型在本次训练中几乎没有学习到什么。该现象存在以下原因:
当在不对拉取的项目文件做修改时,往往是数据集的原因,数据集出现了严重的标注错误、类别混淆等。
数据集数量太小,选择的epoch也很少,不足以支持学习。
检测的类别的模样相差很大,但却标注了同一类名称,目标较难识别。这种情况需要对数据集进行重新设计。
项目文件存在缺陷,思考一下自己是不是改了项目文件或者其中某个参数。
解决方法:先检查数据集,这通常绝大部分原因是数据集的问题(尤其是数量、质量)。确认无误后尝试更换优化器。再测试别的对比试验,实在不行就放弃该实验采用别的实验,节约时间。
现象描述:曲线不是很平滑规整、同时指标也不是很平滑规整。
解决方法:加大数据集的数据量(假设有多个类别A-500张、B-500张、C-50张,则加大你类别最少的数据量,即C加大),略微增加epoch。
现象描述:这种情况通常train和val的loss图像都是向上的,指标很差或直接为0。这种情况博主也没遇到过,暂时先不配图。
解决方法:若是自己设计的网络,检查模型是否存在问题,是否合理。检查自己配置文件的参数设置是否正常。检测数据集是否存在严重质量上的问题。
现象描述:这种情况通常train是下降的,并且通常比较平滑,而val的loss图像是持续向上的,当然,也可能开头几个epoch的val是下降的,但后来一直持续上升,这种问题据博主观察常出现在自建数据集中,此处博主展开讲。
解决方法:虽然你的自建数据集可能只有一个类别,但实际你划分你的训练、验证集的时候,需要仔细划分。这里博主举一个例子,若你进行的是一个类别的陷坑检测,则请注意训练和验证集中均需要保证有这个陷坑的各种情况(背景)。
比如以上是陷坑数据集的示例图片。
我们可以发现,这几张图片语义信息丰富。从左到右、从上到下看,第一张是沥青下的陷坑数据集,陷坑内貌似有积水,沥青下的陷坑内是黑色的,第二张属于晴天、乡镇为背景情况下的陷坑反光,第三张是雨后水泥地下的陷坑,而且陷坑内有积水,陷坑旁有许多碎石,第四章属于乡镇情况下的陷坑,且被用物品放置陷坑内明显提示了来往车辆,第五张则是水泥地下的陷坑,不是很明显......语义信息较为丰富,在这种情况下,若你只用最后一张图片作为val,而其它用于train或与之相反,很显然,这是不合理的,且容易导致上述情况,因此,对数据集进行划分时,盲目随机不可取!
现象描述:这种情况通常与train、val的loss曲线无关,而是指precision或者recall指标最开始几个世代的数值飙升,而后却马上降低,导致曲线出现如图所示的情况。
解决方法:这种情况若加载了预训练权重,有可能是由于迁移学习导致的模型性能较好,但这种数据显然是不真实的,尝试不加载权重。还有可能是模型深度太浅,可测试换用更深的模型,比如你现在用的是yolov5n,尝试换成yolov5s进行测试。
正常会遇到的情况绝大多数是:过拟合、欠拟合、(自己收集的而非官方开源的)数据集错误。
很多时候盲目增大batchsize、epoch反而会降低评估的结果,但这不是绝对的。
同时,看loss曲线的变化并不能百分百判断出遇到的情况,博主建议大家一点一点地做修改,一次解决一个问题测试后再解决,一步一步排错,方能完美地解决问题。
意思是你进行训练要做什么用?工业或是科研?以科研为例,分析你的场景需求是否适合讲故事,自己能否说得通等,分析比如你在疫情期间去写检测口罩的论文会更好通过,现在显然作用没有之前那么大。
选择数据集的时候重点关注数据集是否存在标注错误、图像质量如何、图像数量是否足够支撑一篇论文所需的量、数据文件大小是否适合你的机器等。
及时排除能省不少事。如RSOD数据集就存在标注错误,这很可能会对你的训练结果产生一定影响。
选择合适的baseline作为你的改进基础,据此进行改进。笔者曾在SSDD进行实验,当我测试其在YOLOv7-tiny的训练结果时在83左右正常收敛,输出曲线也并无什么异常,于是直接进行魔改,测试了一段时间涨点百分之11后一测对比试验,结果只打过了YOLOv5-n,于是惨遭失败。因此,为了节约时间,一定要注意自己的步骤。
改进过程中,最好自己先制定一个计划,设计一个表格来展示你的Precision、Recall、map@0.5、map@0.5:.95、F1分数以及GFLOPS,据此做出对比与参考,同时对实验出的文件进行留样,选择必要的文件进行存储,并用以说明实验时发现的问题等。
对自己的baseline进行分析,主要是对自己的loss曲线做分析,根据第一大点分析收敛地是否合理,曲线是否足够平滑。
完成上述步骤后,则可以尽量减少实验出现的失误以节约时间。
若直接以YOLOv7的项目文件为基础不做多余的修改进行训练,将会得出以下文件
其中我们需要重点关注的文件有:
如图所示,其中best.pt用于存放你目前评估结果最佳的模型权重,last.pt用于存放你训练中断或结束后的最后一个已经评估完成的epoch,主要用于断点重训,在项目文件的train.py中将resume设为true即可断点重训。当你需要这么做的时候请看点
混淆矩阵通过计算基于混淆矩阵的各种性能指标,如准确率、召回率、精确率、F1分数以及mAP(Mean Average Precision)等,可以全面评估目标检测模型在不同类别上的表现。
也能够直接展示出哪些类别被频繁误分类或漏检,有助于识别模型在特定类别上的弱点,尤其是在类别分布不均的数据集中。
通过分析混淆矩阵,我们可以针对性地优化模型,比如对频繁产生假正例的类别调整分类阈值,或对特定类别增加训练数据以提高模型的泛化能力。
通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)
F1分数作为精确率和召回率的调和平均值,能够综合评估模型在这两方面的表现,帮助找到一个二者之间的平衡点。
有些时候,某些类别的对象可能远多于其他类别,导致模型倾向于预测该类别而忽视其他数量较少的类别。F1分数在这种情况下尤为有用,因为它不会像准确率那样受到类别频率的影响,可以更公平地评估模型在所有类别上的表现。
同时,在比较不同的目标检测算法或模型时,F1分数提供了一个统一的标准,使得不同方法的性能可以直接进行对比。
通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)
如图的F1分数最佳值为0.76,而0.618应为面积比。
用于存放你训练过程中设置的参数。
通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)
展示了你的Precision曲线。
通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)
展示了你的Recall曲线。
通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)
展示了你的P-R曲线。
用于展示你训练过程中的各个数据输出,比如train_loss、val_loss以及四个指标Precision、Recall、map@0.5、map@0.5:.95,输入图像尺寸以及epoch结束的最后一个标签加载数(该数字可用于定位是否发生了断点训练)
用于展示results.txt的文件,通常只有完全训练结束后才会生成这个文件(即中途中断训练又不断点重训则不会生成)。
当你的类别数为1时,classification则为一条直线或如图所示的情况
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。