赞
踩
yolov5的detect.py 是默认batchsize=1的,而直接修改batchsize为更大的值,会使detect.py 不工作.
因此本篇文章想解决两个问题:
1.设置多大的bz合适
2.如何修改detect.py 使其满足自定义的bz
ref:https://github.com/ultralytics/yolov5/discussions/6649
ref:https://docs.google.com/spreadsheets/d/1Nm3jofjdgKja0AZHV8Jk_m8TgcF7jenCSA06DuEG2C0
基于.pt的测试文档
基于.pt 格式的推理速度。
结论:较小的模型增大bz收益不明显,模型越大,增大bz收益越明显。
例如,
对s模型 bz = 1 推理用时为1.0 bz= 8 推理用时 7 32时 推理用时 11.7 128 15.2
对m模型 bz = 1 推理用时为1.0 bz= 8 推理用时 7 32时 推理用时 9.2 128 8.4
有一个大佬还做了如下测试:
同时大佬还提到,设备硬件不同,结果也不同。
由1batchsize和推理速度的关系 我们可以看到,做batchsize的增大,即批量传入图片做推理对性能提升是有帮助的。
然后去github上找好的范例:
相关的有
2.https://github.com/ultralytics/yolov5/issues/10362
这个issue 提到在export的时候可以dynamic batchsize,这样可以不固定batchsize。
3.https://github.com/ultralytics/yolov5/issues/9511
这个issue和我想做的事情完全一样。
第一个红框说的是,detect.py run inference at batch-size 1, 但是 you can use PyTorch Hub models to run inference at any batchsize
这里和作者讨论的事,可以在detect.py 直接修改batch_size, 我的版本yolov5 tag 6.1, 它就没有batchsize这个参数。
根据以上的回答,yolov5的作者把我们引向了这里:https://docs.ultralytics.com/yolov5/
重点看这里:https://docs.ultralytics.com/yolov5/tutorials/pytorch_hub_model_loading/
import torch
path_weight = '/home/jianming_ge/workplace/yolov5_template/yolov5_template/weights/yolov5m6.pt'
model = torch.hub.load('/home/jianming_ge/workplace/yolov5_template/yolov5_template', 'custom', path=path_weight, source='local',autoshape = True)
img_path1 = "/home/jianming_ge/workplace/yolov5_template/yolov5_template/data/images11/bus.jpg"
# 循环32次执行
imgs = [Image.open(img_path1)]
%timeit [model(imgs) for _ in range(32)] # batch-size 1
# batch_size = 32 执行
%timeit model(imgs * 32) # batch-size 32
32张单图片 耗时 739ms
batch_size = 32 耗时 291ms
%timeit 是python的语法糖,可以用来测试耗时,默认运行7次,求其平均的耗时。
ref:https://github.com/ultralytics/yolov5/issues/9987, 这个ref 作者明确说了,你的batch_size就是传过来的list的长度。也就是说可以自定义了。
推理结束后,它依然会占用最大的显存10000Mb不释放。应该如何破?? 权重加载的时候才2000Mb。
解决方案:
orch.cuda.empty_cache() 加上这句话,它在推理结束后就只保留原始的2000MB的显存使用情况了。
ref:https://blog.csdn.net/weixin_44826203/article/details/130401177
import torch
from PIL import Image
import time
path_weight = '/home/jianming_ge/workplace/yolov5_template/yolov5_template/weights/yolov5m6.pt'
model = torch.hub.load('/home/jianming_ge/workplace/yolov5_template/yolov5_template', 'custom', path=path_weight, source='local',autoshape = True)
img_path1 = "/home/jianming_ge/workplace/yolov5_template/yolov5_template/data/images11/bus.jpg"
imgs = [Image.open(img_path1)]
for _ in range(10):
results = model(imgs * 128)
results.print()
torch.cuda.empty_cache()
time.sleep(2)
time.sleep(1000)
ref:https://docs.ultralytics.com/yolov5/tutorials/pytorch_hub_model_loading/#detailed-example
后面还有分显卡推理啥的,yolov给封装的很好
pytorch的显存知识总结:https://zhuanlan.zhihu.com/p/424512257 这个娃是研究并行计算的猛人!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。