当前位置:   article > 正文

基于改进的YOLO算法在TT100K数据集上的交通标志目标检测

基于改进的YOLO算法在TT100K数据集上的交通标志目标检测
交通标志是道路交通管理中的重要元素,准确高效地检测交通标志对于智能交通系统具有重要意义。本文基于改进的YOLO算法,结合TT100K数据集,实现了交通标志的目标检测。通过优化网络结构和训练策略,提升了交通标志检测的准确性和效率,为智能交通系统的发展提供了有力支持。

关键词:YOLO算法、TT100K数据集、交通标志、目标检测、智能交通系统

1. 研究背景
随着智能交通系统的不断发展,交通标志的快速准确检测成为了一项重要任务。现有的目标检测算法中,YOLO(You Only Look Once)以其高效的特点被广泛应用。然而,在处理交通标志这一特定场景时,传统的YOLO算法存在一定的局限性,需要进行改进和优化。

2. 相关工作
之前的研究工作主要集中在交通标志目标检测的数据集构建和算法优化方面。TT100K数据集是一个包含大量交通标志样本的数据集,为交通标志检测提供了重要的数据支持。同时,针对YOLO算法的改进也取得了一定的成果,如网络结构的优化、损失函数的设计等方面的改进均能有效提升检测精度。

3. 方法介绍
本文针对交通标志目标检测,基于改进的YOLO算法,在TT100K数据集上进行了实验。首先,我们对YOLO算法进行了调整和优化,改进了网络结构以适应交通标志的特征。其次,我们设计了针对交通标志的损失函数,提高了模型对交通标志的检测能力。最后,通过大量实验验证了改进算法在TT100K数据集上的有效性和准确性。

4. 实验结果与分析
实验结果表明,我们提出的改进算法在TT100K数据集上取得了较好的性能表现,相比传统的YOLO算法具有更高的检测准确率和更快的检测速度。通过与其他算法进行对比实验,我们进一步验证了改进算法的有效性和优越性。

5. 结论与展望
本文基于改进的YOLO算法在TT100K数据集上实现了交通标志的目标检测,取得了良好的效果。未来,我们将继续优化算法,探索更多的数据增强和模型融合方法,进一步提升交通标志检测的精度和鲁棒性,为智能交通系统的发展做出更大贡献。
通过本文的研究,我们为交通标志目标检测提供了一种有效的解决方案,同时也为改进和优化YOLO算法在特定场景下的应用提供了有益的启示。

在原始代码基础上:

  1. 修改数据加载类,支持CoCo格式(使用cocoapi);
  2. 修改数据增强;
  3. validation增加mAP计算;
  4. 修改anchor;


注: 实验开启weight_decay或是 不对conv层和FC层的bias参数,以及BN层的参数进行权重衰减,mAP下降很大,mAP@[.5:.95]=0.244

训练集
[Tsinghua-Tencent 100K]

下载的训练集主要包含train和test两部分,分别为6107和3073张图片。统计标注文件,共221类。详细统计每类标志个数,发现很多类的数量为0,所以清楚了部分数量为0的label,剩下类别为151,其中仍存在很多类数量<5.

TT100k转为CoCo格式:

交通标志类别:

  • 数据集中包含数百种不同类型的交通标志实例,例如停止标志、限速标志、方向指示标志等。截至某个时间点,数据集有超过232种不同的交通标志类别,这意味着每种类别都有一定数量的样本图片用于训练和测试模型。
  • i2r类别: 这个类别涉及图像到文本的匹配任务,提供一张图像及五个候选文字描述,目标是确定哪一描述最准确地匹配该图像的内容。
  • i2 类别: 这个类别代表图像到图像的匹配,给定两张图像,判断这两张图像是否描述的是同一场景或物体,适用于图像检索和匹配任务。
  • Other 类别: 可能包括不属于上述特定任务的其他类型的数据,或者是为了填充和扩充数据集而添加的样本 参考 [yolo-v3脚本]

python scripts/tt100k2coco.py

测试

pretrained model
密码: lcou

下载到model_data,运行:python predict.py

结果

mAP of yolo

对比yolov3:

 

如上,mAP不高,分析原因,可能如下:

  • 数据集分辨率2048x2048,yolov4输入为608,且交通标志中存在很多小物体,原图resize到608,很多目标太小难以检测;
  • 某些类别数量过少;


可优化:

  • 借鉴YOLT方法检测小物体;
  • 数据集扩充/增强;
  • 使用更优秀的检测方法;
  • 改进loss,解决类别不均衡可参考

主要代码

  1. # ----------------------------------------------------#
  2. # 对视频中的predict.py进行了修改,
  3. # 将单张图片预测、摄像头检测和FPS测试功能
  4. # 整合到了一个py文件中,通过指定mode进行模式的修改。
  5. # ----------------------------------------------------#
  6. import time
  7. import cv2
  8. import numpy as np
  9. from PIL import Image
  10. from yolo import YOLO
  11. if __name__ == "__main__":
  12. yolo = YOLO()
  13. # -------------------------------------------------------------------------#
  14. # mode用于指定测试的模式:
  15. # 'predict'表示单张图片预测
  16. # 'video'表示视频检测
  17. # 'fps'表示测试fps
  18. # -------------------------------------------------------------------------#
  19. mode = "predict"
  20. # -------------------------------------------------------------------------#
  21. # video_path用于指定视频的路径,当video_path=0时表示检测摄像头
  22. # video_save_path表示视频保存的路径,当video_save_path=""时表示不保存
  23. # video_fps用于保存的视频的fps
  24. # video_path、video_save_path和video_fps仅在mode='video'时有效
  25. # 保存视频时需要ctrl+c退出才会完成完整的保存步骤,不可直接结束程序。
  26. # -------------------------------------------------------------------------#
  27. video_path = 0
  28. video_save_path = ""
  29. video_fps = 25.0
  30. if mode == "predict":
  31. '''
  32. 1、该代码无法直接进行批量预测,如果想要批量预测,可以利用os.listdir()遍历文件夹,利用Image.open打开图片文件进行预测。
  33. 具体流程可以参考get_dr_txt.py,在get_dr_txt.py即实现了遍历还实现了目标信息的保存。
  34. 2、如果想要进行检测完的图片的保存,利用r_image.save("img.jpg")即可保存,直接在predict.py里进行修改即可。
  35. 3、如果想要获得预测框的坐标,可以进入yolo.detect_image函数,在绘图部分读取top,left,bottom,right这四个值。
  36. 4、如果想要利用预测框截取下目标,可以进入yolo.detect_image函数,在绘图部分利用获取到的top,left,bottom,right这四个值
  37. 在原图上利用矩阵的方式进行截取。
  38. 5、如果想要在预测图上写额外的字,比如检测到的特定目标的数量,可以进入yolo.detect_image函数,在绘图部分对predicted_class进行判断,
  39. 比如判断if predicted_class == 'car': 即可判断当前目标是否为车,然后记录数量即可。利用draw.text即可写字。
  40. '''
  41. while True:
  42. img = input('Input image filename:')
  43. try:
  44. image = Image.open(img)
  45. except:
  46. print('Open Error! Try again!')
  47. continue
  48. else:
  49. r_image = yolo.detect_image(image)
  50. r_image.save(img.split("/")[-1])
  51. r_image.show()
  52. elif mode == "video":
  53. capture = cv2.VideoCapture(video_path)
  54. if video_save_path != "":
  55. fourcc = cv2.VideoWriter_fourcc(*'XVID')
  56. size = (int(capture.get(cv2.CAP_PROP_FRAME_WIDTH)), int(capture.get(cv2.CAP_PROP_FRAME_HEIGHT)))
  57. out = cv2.VideoWriter(video_save_path, fourcc, video_fps, size)
  58. fps = 0.0
  59. while (True):
  60. t1 = time.time()
  61. # 读取某一帧
  62. ref, frame = capture.read()
  63. # 格式转变,BGRtoRGB
  64. frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
  65. # 转变成Image
  66. frame = Image.fromarray(np.uint8(frame))
  67. # 进行检测
  68. frame = np.array(yolo.detect_image(frame))
  69. # RGBtoBGR满足opencv显示格式
  70. frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)
  71. fps = (fps + (1. / (time.time() - t1))) / 2
  72. print("fps= %.2f" % (fps))
  73. frame = cv2.putText(frame, "fps= %.2f" % (fps), (0, 40), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)
  74. cv2.imshow("video", frame)
  75. c = cv2.waitKey(1) & 0xff
  76. if video_save_path != "":
  77. out.write(frame)
  78. if c == 27:
  79. capture.release()
  80. break
  81. capture.release()
  82. out.release()
  83. cv2.destroyAllWindows()
  84. elif mode == "fps":
  85. test_interval = 100
  86. img = Image.open('img/street.jpg')
  87. tact_time = yolo.get_FPS(img, test_interval)
  88. print(str(tact_time) + ' seconds, ' + str(1 / tact_time) + 'FPS, @batch_size 1')
  89. else:
  90. raise AssertionError("Please specify the correct mode: 'predict', 'video' or 'fps'.")

最后,计算机视觉、图像处理、毕业辅导、作业帮助、代码获取,私聊会回复!

企鹅耗子:767172261

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号