当前位置:   article > 正文

YOLOV8的应用和思考(1)---初识YOLOV8到上手_yolov8必须和摄像头安装到一块吗

yolov8必须和摄像头安装到一块吗

YOLOV8的应用和思考(1)—初识YOLOV8到上手

第一章 初识YOLOV8到上手
第二章 YOLOV8训练自己的数据集

第n章 YOLOV8的部署和应用



前言

最近自己在和朋友一起做关于YOLOV8识别的项目,有很多网上给出的教程都是结束到环境配置,简单的训练或者简单的预测,而对于进一步的应用和在使用YOLOV8进行训练或者预测的时候的注意事项基本没有给出进一步的解释,我希望在这里分享我在这半年中做项目踩过的坑以及自己对于YOLOV8使用经验,希望给正在使用YOLO做项目的同学提供一些力所能及的帮助,也希望帮助未来想用YOLOV8或者YOLONAS做项目的同学免去一些在入门时不知如何开始,或网络上资源有限的烦恼。

文中会有很多自己的理解,存在不正确的地方还请大家指正。

我本科和硕士都不是计算机专业,代码这方面还有很大欠缺,还望各位大哥海涵。


提示:以下是本篇文章正文内容,下面案例可供参考

一、YOLOV8的一个简单的介绍

先放个图给大伙看看:

来源:https://github.com/Deci-AI/super-gradients

简单的来说,yolov8对于前些代yolo的有提升,速度变快了,识别精度变高了。

而对于YOLOV8来说,又分小模型和大模型,小模型探测头少,参数少,但是体积小,速度快,但是部署方便,延迟和帧数表现都会比大模型好。
至于怎么选择,就看各位在项目中自己的需求了,想要部署摄像头实时识别一些很简单的物体,比如说人,宠物之类,选择小模型会有优势,但是比如说想要对精确度有很高要求,图像处理时间没有要求的项目中比如说在医疗中的识别或者小物体(在图片中占很少的像素)的计数等等,就要使用大模型保证推理的准确性。
在这里插入图片描述
大家想了解更多关于YOLOV8的信息可以访问Ultralytics的官网:
https://github.com/ultralytics/ultralytics?tab=readme-ov-file


二、快速入门

两个版本供大家选择:

  1. 速速速速速速:想尝试一下yolov8并且看看他是干什么的
  2. 需要用yolov8做项目的

1.极速版

1. 下载anaconda

anaconda官网:https://www.anaconda.com/download

2. 使用anaconda创建一个环境

我大胆直接引用风吹过夏天的文章:使用 Anaconda 创建 Python 虚拟环境,这篇文章中有很详细的介绍,我们可以创建一个名叫yolo的虚拟环境,然后我们直接进入pycharm。

3. 配置pycharm环境
  1. 首先,我们先新建一个项目,File->New Project
    在这里插入图片描述
  2. 然后我们进入File->Setting,点击Add Interpreter, 选择Conda Environment, 找到安装Anaconda的位置, 然后Load Environments, 这样刚才创建的环境就会显示在existing environment中,然后点OK,这样Conda环境就挂在这个项目上了,接下来就可以开始咯
    在这里插入图片描述
4. 打开控制台安装yolov8
pip install ultralytics
  • 1
5. 做一些简单的预测
  1. 新建一个py文件,在文件中输入以下代码:
from ultralytics import YOLO
#加载模型
model = YOLO("yolov8n.pt")
#读取图片地址
source="D:/yolo/ultralytics-main/ultralytics/assets/nus_colleges.jpg"
#进行预测并保存
model.predict(source, save=True, imgsz=640, conf=0.7)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

在这里插入图片描述
图中的人物被轻松识别,当然视频也是可以读取并且进行预测的,只要更改source的地址就可以,注意复制过来的path里的’‘要改为’/',当然摄像头实时预测也是可以的,在此就先不再赘述,我想把这一大块安排到后面,包括预测的图像和数据的提取和处理,我在这里就先大胆引用一下大佬的代码:yolov8实时摄像头检测,给各位先作为参考。

  1. 或者可以直接在pycharm的console中输入

yolo predict model=yolov8n.pt source=‘https://ultralytics.com/images/bus.jpg’

当然以上的model和source都是可以更改的,source可以是本地的也可以是github上的图片甚至youtube的视频链接。

2.注入神秘力量(进一步设置,加入GPU)

1. 先完成(1)中的所有设置

在加入GPU之前,我们首先要完成基础的环境配置,然后我们才可以用CUDA和cudnn把电脑的GPU挂到yolo上面,对于我的电脑来讲,RTX3060 8GB版大概可以使我的图像处理时间缩短为1/4,更好的GPU可以使得处理速度更快,在训练自己的模型和摄像头实时预测中是十分必要的。

2. 装CUDA,cudnn和pytorch

这一步很重要,而且网上也有很详尽的教程,我找了一个我认为很简洁,详细的教程供各位参考:
YOLOV8从环境部署(GPU版本)到模型训练——专为小白设计一看就懂,来自CSDN:cc陈c
请如果要用到GPU的各位一定要按照里面的步骤一步不差的安装,如果安装步骤中出现问题也不用很害怕,把下载的cuda和cudnn文件夹都删除,再把环境变量删除,重新按照里面的步骤安装即可。

3.验证GPU是否已经挂载
  1. 在命令行输入nvidia-smi,可以检查GPU是否正确挂载,也可以检查CUDA Version
    在这里插入图片描述
  2. 把模型读取之后,把他挂在GPU上,然后进行判断,看模型是否用cuda运行
device = "cuda" if torch.cuda.is_available() else "cpu"
model = model.to(device)

print(f"Using device: {device}")
  • 1
  • 2
  • 3
  • 4

如果他能使用GPU进行推理的话,会出现Using device cuda,这个时候就可确定GPU已经在我们环境中的配置完全正确并且可以使用,我们就可以进行接下来的步骤了。

3. 把ultralytics源文件拷入项目

如果想要深入yolo,对里面的loss.py等等修改以添加注意力机制等等,可以去ultralytics的github官网下载ZIP文件并把他解压到项目中,这样去修改里面的参数会更加方便。

在这里插入图片描述


三. You want to play, Let’s play!

在环境搭建完毕之后,我们就可以开始对图片或者视频进行预测啦
在这里插入图片描述


下一章:第二章 YOLOV8训练自己的数据集

我想在下一章跟大家分享数据集结构,数据集标注,数据集制作的小tips可以使得识别效果大幅变好,在线和本地的自定数据集训练,并且会另开一章介绍介绍YOLONAS-L大模型的训练。

有任何问题欢迎大家直接给我发邮件:wangxuanbo1014@gmail.com

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/447030?site
推荐阅读
相关标签
  

闽ICP备14008679号