赞
踩
Anaconda教程
YOLOv5教程
经过上面两个教程之后,你应该获取了自己的best.pt
文件
models/yolo.py
文件中的class
类下的forward
函数由:def forward(self, x): z = [] # inference output for i in range(self.nl): x[i] = self.m[i](x[i]) # conv bs, _, ny, nx = x[i].shape # x(bs,255,20,20) to x(bs,3,20,20,85) x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous() if not self.training: # inference if self.dynamic or self.grid[i].shape[2:4] != x[i].shape[2:4]: self.grid[i], self.anchor_grid[i] = self._make_grid(nx, ny, i) if isinstance(self, Segment): # (boxes + masks) xy, wh, conf, mask = x[i].split((2, 2, self.nc + 1, self.no - self.nc - 5), 4) xy = (xy.sigmoid() * 2 + self.grid[i]) * self.stride[i] # xy wh = (wh.sigmoid() * 2) ** 2 * self.anchor_grid[i] # wh y = torch.cat((xy, wh, conf.sigmoid(), mask), 4) else: # Detect (boxes only) xy, wh, conf = x[i].sigmoid().split((2, 2, self.nc + 1), 4) xy = (xy * 2 + self.grid[i]) * self.stride[i] # xy wh = (wh * 2) ** 2 * self.anchor_grid[i] # wh y = torch.cat((xy, wh, conf), 4) z.append(y.view(bs, self.na * nx * ny, self.no)) return x if self.training else (torch.cat(z, 1),) if self.export else (torch.cat(z, 1), x)
改为:
def forward(self, x):
z = [] # inference output
for i in range(self.nl):
x[i] = self.m[i](x[i]) # conv
return x
export.py
文件中的run
函数下的语句:shape = tuple((y[0] if isinstance(y, tuple) else y).shape) # model output shape
改为:
shape = tuple((y[0] if isinstance(y, tuple) else y)) # model output shape
run/train/
目录下的exp/weighst/best.pt
文件移动至与export.py
同目录下cd yolov5
python export.py --weights best.pt --img 640 --batch 1 --include onnx --opset 12
best.onnx
文件,在Netron中查看模型是否正确OUTPUTS
是否出现三个输出节点,是则ONNX模型转换成功。best.onnx
模型不是三个输出节点,则不用尝试下一步,会各种报错。我使用的是VMWare
虚拟机安装的Ubuntu18.04
系统,注意,不是在RK3588
上,是在你的电脑或者虚拟机上操作这一步骤。
rknn-toolkit2-1.4.0
所需python
版本为3.6
所以需要安装Miniconda
来帮助管理。
Miniconda3-latest-Linux-x86_64.sh
所在目录chmod +x Miniconda3-latest-Linux-x86_64.sh
./Miniconda3-latest-Linux-x86_64.sh
(base)
Miniconda3
安装教程。conda create -n rknn3.6 python=3.6
conda activate rknn3.6
(rknn3.6)
源代码
下的RK356X/RK3588 RKNN SDK
RKNN_SDK-> RK_NPU_SDK_1.4.0
下载 rknn-toolkit2-1.4.0
rknn-toolkit2-1.4.0
目录pip install packages/rknn_toolkit2-1.4.0_22dcfef4-cp36-cp36m-linux_x86_64.whl
python
from rknn.api import RKNN
rknn3.6
虚拟环境下;pip install packages/rknn_toolkit2-1.4.0_22dcfef4-cp36-cp36m-linux_x86_64.whl
是否报错;pip install
报错的时候,提示缺什么就用pip install
或者sudo apt-get install
安装什么;上述所需都安装并且验证成功,则开始下一步。
将best.onnx
模型转换为best.rknn
模型
cd examples/onnx/yolov5
test.py
出来进行修改:cp test.py ./mytest.py
ONNX_MODEL = 'best.onnx' #待转换的onnx模型
RKNN_MODEL = 'best.rknn' #转换后的rknn模型
IMG_PATH = './1.jpg' #用于测试图片
DATASET = './dataset.txt' #用于测试的数据集,内容为多个测试图片的名字
QUANTIZE_ON = True #不修改
OBJ_THRESH = 0.25 #不修改
NMS_THRESH = 0.45 #不修改
IMG_SIZE = 640 #不修改
CLASSES = ("person") #修改为你所训练的模型所含的标签
if __name__ == '__main__':
中的语句:rknn.config(mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]])
rknn.config(mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], target_platform='rk3588')
# cv2.imshow("post process result", img_1)
# cv2.waitKey(0)
# cv2.destroyAllWindows()
cv2.imshow("post process result", img_1)
cv2.waitKey(0)
cv2.destroyAllWindows()
python mytest.py
best.rknn
则该步骤成功。RKNN3588
的Ubuntu20
系统上安装Miniconda
,需要注意的是,RKNN3588
的Ubuntu20
系统为aarch
架构因此下载的Miniconda
版本和之前有所不同,需要选择对应的aarch
版本。aarchMiniconda下载
RK3588
上要用到rknn-toolkit-lite2
所以需要安装python3.7
:
rknn-toolkit-lite2
到RK3588
,也就是下载rknn-toolkit2-1.4.0
,不再赘述。rknn-toolkit-lite2
rknn-toolkit2-1.4.0/rknn-toolkit-lite2
目录pip install packages/rknn_toolkit_lite2-1.4.0-cp37-cp37m-linux_aarch64.whl
python
from rknnlite.api import RKNNLite
example
文件夹下新建一个test
文件夹best.rknn
模型以及文章开头github
仓库下的detect.py
文件detect.py
文件中需要修改的地方:
RKNN_MODEL = 'best.rknn' #你的模型名称
IMG_PATH = './1.jpg' #测试图片名
CLASSES = ("cap") #标签名
if __name__ == '__main__':
:capture = cv2.VideoCapture(11) #其中的数字为你Webcam的设备编号
v4l2-ctl --list-devices
Cam
之类的字眼对应的/dev/video11
中的11就是你的设备编号。python detect.py
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。