当前位置:   article > 正文

助力打造智慧数字课堂,基于YOLOv8全系列【n/s/m/l/x】不同参数量级模型开发构建教学课堂场景下学生课堂行为检测识别分析系统_yolo 课堂状态

yolo 课堂状态

近年来,随着行为检测技术的发展,分析学生在课堂视频中的行为,以获取他们的课堂状态和学习表现信息已经成为可能。这项技术对学校的教师、管理人员、学生和家长都非常重要。使用深度学习方法自动检测学生的课堂行为是分析学生课堂表现和提高教学效果的一种很有前途的方法。在传统的教学模式中,教师很难及时有效地关注每个学生的学习情况,只能通过观察少数学生来了解自己教学方法的有效性。加之课堂时间有效提问式的交互方式难以覆盖到所有人群,传统的应试教育模式通过考试来检查学生知识掌握的程度往往具有滞后性和低效性。除此之外,学生家长只有通过与老师和学生的交流才能了解孩子的学习情况。而这些反馈相对具有主观性,学习本身是一个需要自发性主动性去参与的过程,但是在青春的年纪很多学习之外的诱惑或者是注意力不集中等因素会导致学生在课堂的参与度不高,如何通过教学过程中的及时反馈响应来聚焦课堂注意力提高教学效率成为了最核心的问题,我们不是教育专家,我们只是喜欢探讨如何将技术与现实生活场景相结合,本文的核心思想就是想要探索利用目标检测模型来检测分析学生的行为,分析他们的学习状态和表现,对于出现的异常行为进行响应或者是记录,为教育教学提供更全面、准确的反馈,通过对课堂行为数据的分析进而有效地纠正低效的课堂行为,从而提高学习成绩。

本文主要是选择最新的YOLOv8来开发实现检测模型,我们开发了五款不同参数量级的模型用于整体对比分析,首先看下实例效果:

简单看下实例数据情况:

训练数据配置文件如下所示:

  1. # Dataset
  2. path: ./dataset
  3. train:
  4. - /data/dataset/images/train
  5. val:
  6. - /data/dataset/images/test
  7. test:
  8. - /data/dataset/images/test
  9. # Classes
  10. names:
  11. 0: handRaising
  12. 1: reading
  13. 2: writing
  14. 3: usingPhone
  15. 4: bowingHead
  16. 5: learningOverTable

如果对YOLOv8开发构建自己的目标检测项目有疑问的可以看下面的文章,如下所示:

《基于YOLOv8开发构建目标检测模型超详细教程【以焊缝质量检测数据场景为例】》

非常详细的开发实践教程。本文这里就不再展开了,因为从YOLOv8开始变成了一个安装包的形式,整体跟v5和v7的使用差异还是比较大的。

YOLOv8核心特性和改动如下:
1、提供了一个全新的SOTA模型(state-of-the-art model),包括 P5 640 和 P6 1280 分辨率的目标检测网络和基于YOLACT的实例分割模型。和 YOLOv5 一样,基于缩放系数也提供了 N/S/M/L/X 尺度的不同大小模型,用于满足不同场景需求
2、骨干网络和 Neck 部分可能参考了 YOLOv7 ELAN 设计思想,将 YOLOv5 的 C3 结构换成了梯度流更丰富的 C2f 结构,并对不同尺度模型调整了不同的通道数,属于对模型结构精心微调,不再是一套参数应用所有模型,大幅提升了模型性能。
3、Head 部分相比 YOLOv5 改动较大,换成了目前主流的解耦头结构,将分类和检测头分离,同时也从Anchor-Based 换成了 Anchor-Free
4、Loss 计算方面采用了TaskAlignedAssigner正样本分配策略,并引入了Distribution Focal Loss
5、训练的数据增强部分引入了 YOLOX 中的最后 10 epoch 关闭 Mosiac 增强的操作,可以有效地提升精度

官方项目地址在这里,如下所示:

目前已经收获超过1.7w的star量了。官方提供的预训练模型如下所示:

Modelsize
(pixels)
mAPval
50-95
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n64037.380.40.993.28.7
YOLOv8s64044.9128.41.2011.228.6
YOLOv8m64050.2234.71.8325.978.9
YOLOv8l64052.9375.22.3943.7165.2
YOLOv8x64053.9479.13.5368.2257.8

另外一套预训练模型如下:

Modelsize
(pixels)
mAPval
50-95
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n64018.4142.41.213.510.5
YOLOv8s64027.7183.11.4011.429.7
YOLOv8m64033.6408.52.2626.280.6
YOLOv8l64034.9596.92.4344.1167.4
YOLOv8x64036.3860.63.5668.7260.6

是基于Open Image V7数据集构建的,可以根据自己的需求进行选择使用即可。

YOLOv8的定位不仅仅是目标检测,而是性能强大全面的工具库,故而在任务类型上同时支持:姿态估计、检测、分类、分割、跟踪多种类型。

分类也提供了对应的预训练模型,如下所示:

Modelsize
(pixels)
acc
top1
acc
top5
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B) at 640
YOLOv8n-cls22466.687.012.90.312.74.3
YOLOv8s-cls22472.391.123.40.356.413.5
YOLOv8m-cls22476.493.285.40.6217.042.7
YOLOv8l-cls22478.094.1163.00.8737.599.7
YOLOv8x-cls22478.494.3232.01.0157.4154.8

分割也提供了对应的预训练模型,如下所示:

Modelsize
(pixels)
mAPbox
50-95
mAPmask
50-95
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-seg64036.730.596.11.213.412.6
YOLOv8s-seg64044.636.8155.71.4711.842.6
YOLOv8m-seg64049.940.8317.02.1827.3110.2
YOLOv8l-seg64052.342.6572.42.7946.0220.5
YOLOv8x-seg64053.443.4712.14.0271.8344.1

姿态估计也提供了对应的预训练模型,如下所示:

Modelsize
(pixels)
mAPpose
50-95
mAPpose
50
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-pose64050.480.1131.81.183.39.2
YOLOv8s-pose64060.086.2233.21.4211.630.2
YOLOv8m-pose64065.088.8456.32.0026.481.0
YOLOv8l-pose64067.690.0784.52.5944.4168.6
YOLOv8x-pose64069.290.21607.13.7369.4263.2
YOLOv8x-pose-p6128071.691.24088.710.0499.11066.4

简单的实例实现如下所示:

  1. from ultralytics import YOLO
  2. # yolov8n
  3. model = YOLO('yolov8n.yaml').load('yolov8n.pt') # build from YAML and transfer weights
  4. model.train(data='data/self.yaml', epochs=100, imgsz=640)
  5. # yolov8s
  6. model = YOLO('yolov8s.yaml').load('yolov8s.pt') # build from YAML and transfer weights
  7. model.train(data='data/self.yaml', epochs=100, imgsz=640)
  8. # yolov8m
  9. model = YOLO('yolov8m.yaml').load('yolov8m.pt') # build from YAML and transfer weights
  10. model.train(data='data/self.yaml', epochs=100, imgsz=640)
  11. # yolov8l
  12. model = YOLO('yolov8l.yaml').load('yolov8l.pt') # build from YAML and transfer weights
  13. model.train(data='data/self.yaml', epochs=100, imgsz=640)
  14. # yolov8x
  15. model = YOLO('yolov8x.yaml').load('yolov8x.pt') # build from YAML and transfer weights
  16. model.train(data='data/self.yaml', epochs=100, imgsz=640)

这里我们依次选择n、s、m、l和x五款不同参数量级的模型来进行开发。

这里给出yolov8的模型文件如下:

  1. # Parameters
  2. nc: 6 # number of classes
  3. scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  4. # [depth, width, max_channels]
  5. n: [0.33, 0.25, 1024] # YOLOv8n summary: 225 layers, 3157200 parameters, 3157184 gradients, 8.9 GFLOPs
  6. s: [0.33, 0.50, 1024] # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients, 28.8 GFLOPs
  7. m: [0.67, 0.75, 768] # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients, 79.3 GFLOPs
  8. l: [1.00, 1.00, 512] # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs
  9. x: [1.00, 1.25, 512] # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs
  10. # YOLOv8.0n backbone
  11. backbone:
  12. # [from, repeats, module, args]
  13. - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  14. - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  15. - [-1, 3, C2f, [128, True]]
  16. - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  17. - [-1, 6, C2f, [256, True]]
  18. - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
  19. - [-1, 6, C2f, [512, True]]
  20. - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
  21. - [-1, 3, C2f, [1024, True]]
  22. - [-1, 1, SPPF, [1024, 5]] # 9
  23. # YOLOv8.0n head
  24. head:
  25. - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  26. - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  27. - [-1, 3, C2f, [512]] # 12
  28. - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  29. - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  30. - [-1, 3, C2f, [256]] # 15 (P3/8-small)
  31. - [-1, 1, Conv, [256, 3, 2]]
  32. - [[-1, 12], 1, Concat, [1]] # cat head P4
  33. - [-1, 3, C2f, [512]] # 18 (P4/16-medium)
  34. - [-1, 1, Conv, [512, 3, 2]]
  35. - [[-1, 9], 1, Concat, [1]] # cat head P5
  36. - [-1, 3, C2f, [1024]] # 21 (P5/32-large)
  37. - [[15, 18, 21], 1, Detect, [nc]] # Detect(P3, P4, P5)

囊括了五款不同参数量级的模型。在训练结算保持相同的参数设置,等待训练完成后我们横向对比可视化来整体对比分析。

【Precision曲线】
精确率曲线(Precision-Recall Curve)是一种用于评估二分类模型在不同阈值下的精确率性能的可视化工具。它通过绘制不同阈值下的精确率和召回率之间的关系图来帮助我们了解模型在不同阈值下的表现。精确率(Precision)是指被正确预测为正例的样本数占所有预测为正例的样本数的比例。召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。

【Recall曲线】
召回率曲线(Recall Curve)是一种用于评估二分类模型在不同阈值下的召回率性能的可视化工具。它通过绘制不同阈值下的召回率和对应的精确率之间的关系图来帮助我们了解模型在不同阈值下的表现。召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。召回率也被称为灵敏度(Sensitivity)或真正例率(True Positive Rate)。

【F1值曲线】
F1值曲线是一种用于评估二分类模型在不同阈值下的性能的可视化工具。它通过绘制不同阈值下的精确率(Precision)、召回率(Recall)和F1分数的关系图来帮助我们理解模型的整体性能。F1分数是精确率和召回率的调和平均值,它综合考虑了两者的性能指标。F1值曲线可以帮助我们确定在不同精确率和召回率之间找到一个平衡点,以选择最佳的阈值。

【loss曲线】

五款不同参数量级的模型学习率变化走势是完全一致的,如下:

综合对比实验结果:可以看到n系列的模型呗其他四个参数量级的模型拉开了明显的差距,s系列的模型与m、l和x系列的模型差距不大但是也是比较明显的,m、l和x三款不同参数量级的模型则没有明显的差距,性能趋于相近,考虑到算力的问题,最终线上模型选择了更为轻量级的m系列的模型。

接下来我们详细看下m系列模型的结果:

【Batch实例】

【训练可视化】

【PR曲线】

精确率-召回率曲线(Precision-Recall Curve)是一种用于评估二分类模型性能的可视化工具。它通过绘制不同阈值下的精确率(Precision)和召回率(Recall)之间的关系图来帮助我们了解模型在不同阈值下的表现。精确率是指被正确预测为正例的样本数占所有预测为正例的样本数的比例。召回率是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。

检测只是第一步也是最基础的一步,假设我们的时间尺度为单节课堂的时长,这里可以通过后台汇聚分析不同行为的占比,从而对调整教学方式或者是内容起到一定的辅助知道作用,更进一步的话可以考虑做到不同人的粒度,统计计算出来每个学生每堂课的不同行为时长,从而针对性地制定相应的改正方案,对于提高学生的成绩有一定的帮助作用,数字化指挥课堂从来不是虚无缥缈的说辞,而是在信息化智能化技术不断蓬勃发展的今天,越来越多的场景、产品、需求开始考虑如何将技术有效地落地应用推广到实际的生活场景之中,为我们的生活赋能为我们的效率提速为我们的的工作提质,这才是更应该去花时间思考的事情。

时间有限,知识技术水平不足,仅以此抛砖引玉,希望未来会有更多真正有用的技术能让我们的生活更加多彩。

如果自己不具备开发训练的资源条件或者是没有时间自己去训练的话这里我提供出来对应的训练结果可供自行按需索取。

单个模型的训练结果默认YOLOv8s

全系列五个模型的训练结果总集

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/335743
推荐阅读
相关标签
  

闽ICP备14008679号