当前位置:   article > 正文

海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(8)_海思ss928 摄像头yolo实时检测

海思ss928 摄像头yolo实时检测

配置好环境的虚拟机,需要可私信联系。

SD3403/SS928/926  SDK环境虚拟机160G 移动硬盘,可直接拷贝到本地VMware直接打开
SD3403/SS928/926 模型转换虚拟机160G 移动硬盘,可直接拷贝到本地VMware直接打开

Hi3516dv500/Hi3519DV500 

SDK环境虚拟机

160G 移动硬盘,可直接拷贝到本地VMware直接打开

Hi3516dv500/Hi3519DV500 

模型转换虚拟机

160G 移动硬盘,可直接拷贝到本地VMware直接打开

目前为止yolov7算法在海思hi3519dv500.3516dv500下的移植已经说完了,后面开始讲 yolov8的移植。过程基本上是一样的,只是在训练和转换过程中会和yolov7有区别。

  本章先说一下训练的部分。

1.库依赖

我这里使用的python3.8

yolov8可以直接通过从PyPI安装ultralytics包

pip install ultralytics

Ultralytics requirements里有说明需要哪些环境配置,这里列出来,请仔细对照,建议是手动安装,避免别的应用环境之间有冲突。

  1. Example: pip install -r requirements.txt
  2. Base ----------------------------------------
  3. matplotlib>=3.3.0
  4. numpy>=1.22.2 # pinned by Snyk to avoid a vulnerability 1.19.5--->1.24.4
  5. opencv-python>=4.6.0
  6. pillow>=7.1.2
  7. pyyaml>=5.3.1
  8. requests>=2.23.0
  9. scipy>=1.4.1
  10. torch>=1.8.0
  11. torchvision>=0.9.0
  12. tqdm>=4.64.0
  13. Logging -------------------------------------
  14. tensorboard>=2.13.0
  15. dvclive>=2.12.0
  16. clearml
  17. comet
  18. Plotting ------------------------------------
  19. pandas>=1.1.4
  20. seaborn>=0.11.0
  21. Export --------------------------------------
  22. coremltools>=7.0 # CoreML export
  23. onnx>=1.12.0 # ONNX export
  24. onnxsim>=0.4.1 # ONNX simplifier
  25. nvidia-pyindex # TensorRT export
  26. nvidia-tensorrt # TensorRT export
  27. scikit-learn==0.19.2 # CoreML quantization
  28. tensorflow>=2.4.1 # TF exports (-cpu, -aarch64, -macos)
  29. tflite-support
  30. tensorflowjs>=3.9.0 # TF.js export
  31. openvino-dev>=2023.0 # OpenVINO export
  32. Extras --------------------------------------
  33. psutil # system utilization 5.9.0
  34. py-cpuinfo # display CPU info none
  35. thop>=0.1.1 # FLOPs computation 0.1.1
  36. ipython # interactive notebook 8.8.0
  37. albumentations>=1.0.3 # training augmentations 1.3.0
  38. pycocotools>=2.0.6 # COCO mAP 2.0.6
  39. roboflow none

这里logging部分和extras部分我都没有装, 如果需要可以自行安装。不影响训练。

2.训练前准备

2.1 数据集准备

按正确的文件夹结构排列您的数据集。您应该有 train/ 和 val/ 顶级目录,在每个目录内,有 images/ 和 labels/ 子目录。

1)数据JPEGIamges和Annotations放置到 data/***/VOCdevkit/VOC2007/ 中

2)两个运行程序放置到data/***/中,修改yolov8_s1_xml2txt.py中的目标类型。

3)运行yolov8_s1_xml2txt.py和yolov8_s2_split_data.py

4)数据yaml写到data文件夹下

  1. train: /home/littro/darknet/data/vsc/images/train # train images
  2. val: /home/littro/darknet/data/vsc/images/val # val images
  3. test: /home/littro/darknet/data/vsc/images/test # test images
  4. # Classes
  5. names: 0: person 1: car

5)模型文件放到model文件夹下,用预训练模型

模型yaml网络文件也放置到这个文件中。

  1. # Ultralytics YOLO
    声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/724064
    推荐阅读
    相关标签