赞
踩
训练深度学习模型涉及为其提供数据并调整其参数,以便它能够做出准确的预测。Ultralytics YOLOv8 的训练模式专为有效、高效地训练目标检测模型而设计,充分利用现代硬件的能力。本指南旨在涵盖使用 YOLOv8 强大功能集训练自定义模型所需的所有细节,帮助你快速入门。
- 高效性:无论是单 GPU 设置还是跨多个 GPU 扩展,都能充分利用你的硬件。
- 多功能性:除了常见的 COCO、VOC 和 ImageNet等数据集外,还可以在自定义数据集上进行训练。
- 用户友好: 简单而强大的 CLI 和Python 接口,提供简洁的训练体验。
- 超参数灵活性:广泛的可定制超参数,能够微调模型性能。
以下是YOLOV8训练模式下显著特点:
- 自动数据集下载: 首次使用时,标准数据集如 COCO、VOC 和 ImageNet 会自动下载。
- 多 GPU 支持:无缝扩展训练至多个 GPU,加快训练过程。
- 超参数配置:可以通过 YAML 配置文件或 CLI 参数修改超参数。
- 可视化和监控:实时跟踪训练指标,并可视化学习过程,提供更深入的见解。
Python代码:
# 训练
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.pt") # load a pretrained model (recommended for training)
# Train the model with 2 GPUs
results = model.train(data="coco8.yaml", epochs=100, imgsz=640, device=[0, 1])
CLI:
yolo detect train data=coco8.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1
关于coco8.yaml配置文件解析:https://blog.csdn.net/qq_42761751/article/details/141088871?spm=1001.2014.3001.5501
从先前保存的状态恢复训练是处理深度学习模型时一项关键功能。在多种情况下,这项功能都非常有用,比如当训练过程意外中断时,或者当你希望使用新数据或延长训练周期继续训练模型时。恢复训练时,Ultralytics YOLO 会加载上次保存的模型权重,并恢复优化器状态、学习率调度器和轮次编号,从而让你可以无缝地从中断的地方继续训练。
Python代码:
# 中断后继续训练
from ultralytics import YOLO
# Load a model
model = YOLO("path/to/last.pt") # load a partially trained model
# Resume training
results = model.train(resume=True)
CLI:
yolo train resume model=path/to/last.pt
默认情况下,检查点会在每个训练周期结束时保存,或者可以使用 save_period 参数在固定间隔内保存。因此,你必须至少完成一个训练周期才能恢复训练。
YOLO 模型的训练设置包括在训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和精度。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器的选择、损失函数以及训练数据集的组成也会对训练过程产生影响。通过对这些设置进行仔细调整和实验,对于优化性能至关重要。
Argument | Default | Description |
---|---|---|
model | None | 指定用于训练的模型文件。接受 .pt 预训练模型的路径或 .yaml 配置文件的路径。对于定义模型结构或初始化权重是必不可少的。 |
data | None | 数据集配置文件的路径(例如,coco8.yaml)。该文件包含数据集特定的参数,包括训练和验证数据的路径、类别名称以及类别数量。 |
epochs | 100 | 训练周期的总数。每个周期代表对整个数据集的完整遍历。调整此值可以影响训练时长和模型性能。 |
time | None | 最大训练时间(以小时为单位)。如果设置了此参数,它将覆盖 epochs 参数,允许训练在指定时间后自动停止。对于时间受限的训练场景非常有用。 |
patience | 100 | 在验证指标没有改善的情况下,等待的周期数,然后提前停止训练。通过在性能停滞时停止训练,帮助防止过拟合。 |
batch | 16 | 批量大小,有三种模式:设为整数(例如,batch=16),自动模式以实现 60% 的 GPU 内存利用率(batch=-1),或者指定利用率比例的自动模式(例如,batch=0.70)。 |
imgsz | 640 | 训练的目标图像大小。所有图像在输入模型之前都会调整为这个尺寸。它会影响模型的准确性和计算复杂度。 |
save | True | 启用保存训练检查点和最终模型权重。对于恢复训练或模型部署非常有用。 |
save_period | -1 | 保存模型检查点的频率,以周期数为单位指定。值为 -1 会禁用此功能。对于在长时间训练过程中保存中间模型非常有用。 |
cache | False | 启用数据集图像的缓存,选项包括在内存中(True/ram)、在磁盘上(disk)或禁用缓存(False)。通过减少磁盘 I/O 来提高训练速度,但会增加内存使用量。 |
device | None | 指定训练的计算设备:单个 GPU(device=0)、多个 GPU(device=0,1)、CPU(device=cpu)或适用于 Apple Silicon 的 MPS(device=mps)。 |
workers | 8 | 数据加载的工作线程数量(如果是多 GPU 训练,则按 RANK 计算)。影响数据预处理和输入模型的速度,在多 GPU 设置中尤为有用。 |
project | None | 保存训练输出的项目目录名称。允许有组织地存储不同的实验结果。 |
name | None | 训练运行的名称。用于在项目文件夹内创建一个子目录,以存储训练日志和输出。 |
exist_ok | False | 如果设置为 True,允许覆盖现有的 project/name 目录。这对于迭代实验非常有用,无需手动清除先前的输出。 |
pretrained | True | 决定是否从预训练模型开始训练。可以是布尔值,或者是一个指定模型路径的字符串,从中加载权重。提高训练效率和模型性能。 |
optimizer | ‘auto’ | 选择训练的优化器。选项包括 SGD、Adam、AdamW、NAdam、RAdam、RMSProp 等,或者 auto 以根据模型配置自动选择。影响收敛速度和稳定性。 |
verbose | False | 启用训练期间的详细输出,提供详细的日志和进度更新。对于调试和密切监控训练过程非常有用。 |
seed | 0 | 设置训练的随机种子,确保在相同配置下的多次运行结果可重复。 |
deterministic | True | 强制使用确定性算法,确保结果的可重复性,但可能会影响性能和速度,因为限制了非确定性算法的使用。 |
single_cls | False | 在训练过程中将多类数据集中的所有类别视为单一类别。这对于二分类任务或关注对象存在而不是分类时非常有用。 |
rect | False | 启用矩形训练,优化批量组成以减少填充。这可以提高效率和速度,但可能会影响模型的准确性。 |
cos_lr | False | 使用余弦学习率调度器,根据余弦曲线在训练周期中调整学习率。帮助管理学习率,以实现更好的收敛效果。 |
close_mosaic | 10 | 在最后 N 个周期中禁用马赛克数据增强,以在训练结束前稳定训练。设置为 0 将禁用此功能。 |
resume | False | 从最后保存的检查点恢复训练。自动加载模型权重、优化器状态和周期数,能够无缝地继续训练。 |
amp | True | 启用自动混合精度(AMP)训练,减少内存使用,并可能在对准确性影响最小的情况下加速训练。 |
fraction | 1.0 | 指定用于训练的数据集的比例。允许在完整数据集的子集上进行训练,对于实验或资源有限时非常有用。 |
profile | False | 启用 ONNX 和 TensorRT 在训练过程中速度的分析,便于优化模型部署。 |
freeze | None | 冻结模型的前 N 层或指定的索引层,减少可训练的参数数量。这对于微调或迁移学习非常有用。 |
lr0 | 0.01 | 初始学习率(例如,SGD=1E-2,Adam=1E-3)。调整此值对于优化过程至关重要,它影响模型权重的更新速度。 |
lrf | 0.01 | 最终学习率作为初始学习率的一个比例 = (lr0 * lrf),与学习率调度器一起使用,以调整学习率随时间的变化。 |
momentum | 0.937 | SGD 的动量因子或 Adam 优化器的 beta1,影响当前更新中过去梯度的融入程度。 |
weight_decay | 0.0005 | L2 正则化项,惩罚较大的权重以防止过拟合。 |
warmup_epochs | 3.0 | 学习率预热的周期数(epochs),逐渐将学习率从低值提高到初始学习率,以在训练初期稳定训练过程。 |
warmup_momentum | 0.8 | 预热阶段的初始动量,逐渐调整到设置的动量值,在预热期内进行平滑过渡。 |
warmup_bias_lr | 0.1 | 在预热阶段偏置参数的学习率,有助于在初始周期中稳定模型训练。 |
box | 7.5 | 损失函数中框损失组件的权重,影响对准确预测边界框坐标的重视程度。 |
cls | 0.5 | 分类损失在总损失函数中的权重,影响相对于其他组件正确类别预测的重要性。 |
dfl | 1.5 | 分布焦点损失的权重,用于某些 YOLO 版本中的细粒度分类。 |
pose | 12.0 | 姿态损失在姿态估计模型中的权重,影响对准确预测姿态关键点的重视程度。 |
kobj | 2.0 | 姿态估计模型中关键点目标损失的权重,平衡检测置信度与姿态准确性。 |
label_smoothing | 0.0 | 应用标签平滑,将硬标签软化为目标标签和标签均匀分布的混合,这可以改善模型的泛化能力。 |
nbs | 64 | 用于损失标准化的名义批量大小。 |
overlap_mask | True | 确定在训练过程中是否允许分割掩码重叠,适用于实例分割任务。 |
mask_ratio | 4 | 分割掩码的下采样比例,影响训练过程中使用的掩码的分辨率。 |
dropout | 0.0 | 分类任务中的 dropout 率,用于正则化,通过在训练过程中随机忽略一些神经元来防止过拟合。 |
val | True | 在训练过程中启用验证,允许周期性地在单独的数据集上评估模型性能。 |
plots | False | 生成并保存训练和验证指标的图表,以及预测示例,提供对模型性能和学习进展的可视化洞察。 |
注意Batch-size设置:
batch 参数可以通过三种方式配置:
- 固定批量大小:设置一个整数值(例如,batch=16),直接指定每个批次的图像数量。
- 自动模式(60% GPU 内存):使用 batch=-1,自动调整批量大小,以实现约 60% 的 CUDA 内存利用率。
- 带有利用率比例的自动模式:设置一个比例值(例如,batch=0.70),根据指定的 GPU 内存使用比例调整批量大小。
增强技术对于提升 YOLO 模型的鲁棒性和性能至关重要,通过引入训练数据的数据增强,帮助模型更好地泛化到未见数据。下表概述了每个增强参数的目的和效果:
Argument | Type | Default | Range | Description |
---|---|---|---|---|
hsv_h | float | 0.015 | 0.0 - 1.0 | 通过调整图像的色调,引入颜色变异性。这有助于模型在不同光照条件下的泛化能力。 |
hsv_s | float | 0.7 | 0.0 - 1.0 | 通过调整图像的饱和度,改变颜色的强度。这对于模拟不同的环境条件非常有用。 |
hsv_v | float | 0.4 | 0.0 - 1.0 | 通过调整图像的亮度(值)比例,改变图像的明暗程度。这有助于模型在各种光照条件下表现良好。 |
degrees | float | 0.0 | -180 - +180 | 在指定的角度范围内随机旋转图像,提高模型识别各种方向物体的能力。 |
translate | float | 0.1 | 0.0 - 1.0 | 水平和垂直平移图像,平移量为图像尺寸的一个比例,有助于模型学习检测部分可见的物体。 |
scale | float | 0.5 | >=0.0 | 通过增益因子对图像进行缩放,模拟物体与相机之间的不同距离 |
shear | float | 0.0 | -180 - +180 | 按照指定角度对图像进行剪切,模拟从不同角度观察物体的效果。 |
perspective | float | 0.0 | 0.0 - 0.001 | 对图像应用随机透视变换,增强模型对三维空间中物体的理解能力。 |
flipud | float | 0.0 | 0.0 - 1.0 | 以指定的概率将图像上下翻转,增加数据的变异性而不影响物体的特征。 |
fliplr | float | 0.5 | 0.0 - 1.0 | 以指定的概率将图像左右翻转,这对于学习对称物体和增加数据集的多样性非常有用。 |
bgr | float | 0.0 | 0.0 - 1.0 | 以指定的概率将图像通道从 RGB 翻转为 BGR,这有助于提高对通道顺序错误的鲁棒性。 |
mosaic | float | 1.0 | 0.0 - 1.0 | 将四张训练图像合成一张,模拟不同的场景组合和物体交互。这对于复杂场景理解非常有效。 |
mixup | float | 0.0 | 0.0 - 1.0 | 将两张图像及其标签进行混合,创建合成图像。通过引入标签噪声和视觉变异性,增强模型的泛化能力。 |
copy_paste | float | 0.0 | 0.0 - 1.0 | 从一张图像中复制物体并粘贴到另一张图像上,这对于增加物体实例和学习物体遮挡非常有用。 |
auto_augment | str | randaugment | - | 自动应用预定义的增强策略(如 randaugment、autoaugment、augmix),通过多样化视觉特征来优化分类任务。 |
erasing | float | 0.4 | 0.0 - 0.9 | 在分类训练过程中随机擦除图像的一部分,鼓励模型关注不那么明显的特征以进行识别。 |
crop_fraction | float | 1.0 | 0.1 - 1.0 | 将分类图像裁剪到其尺寸的一个比例,以突出中心特征并适应物体的尺度,减少背景干扰。 |
这些设置可以根据数据集和任务的具体要求进行调整。尝试不同的值可以帮助找到最佳的增强策略,从而实现最佳的模型性能。
本文参考:
https://docs.ultralytics.com/modes/train/#why-choose-ultralytics-yolo-for-training
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。