当前位置:   article > 正文

YOLOv5-7.0实例分割+TensorRT部署_tensorrtx yolov5-v7.0

tensorrtx yolov5-v7.0

一:介绍

YOLOv5结合分割任务并进行TensorRT部署,是一项既具有挑战性又令人兴奋的任务。分割(Segmentation)任务要求模型不仅能够检测出目标的存在,还要精确地理解目标的边界和轮廓,为每个像素分配相应的类别标签,使得计算机能够对图像进行更深入的理解和解释。而TensorRT作为一种高性能的深度学习推理引擎,能够显著加速模型的推理过程,为实时应用提供了强大的支持。

在本文中,我们将探讨如何将YOLOv5与分割任务相结合,实现同时进行目标检测和像素级别的语义分割。我们将详细介绍模型融合的技术和步骤,并深入讨论如何利用TensorRT对模型进行优化,以实现在嵌入式设备和边缘计算环境中的高效部署。通过阐述实验结果和性能指标,我们将展示这一方法的有效性和潜力,为读者带来关于结合YOLOv5、分割任务和TensorRT部署的全面认识。

二:python

  1. 打开pycharm,终端输入pip install labelme
  2. 为了方便我们之后标注的工作,需要打开C盘->用户->用户名->.labelmerc文件打开之后,将第一行的auto_save改为true,方便标框需要将create_polygon改为W,方便修改标注框将edit_polygon改为J
  3. 下载结束后,pycharm终端输入labelme,打开你数据集的文件夹,进行标注即可,这里不放图片演示了
  4. 标注完之后我们需要将json文件转换为txt文件,下面放上所需要的代码
    1. import json
    2. import os
    3. import argparse
    4. from tqdm import tqdm
    5. def convert_label_json(json_dir, save_dir, classes):
    6. json_paths = os.listdir(json_dir)
    7. classes = classes.split(',')
    8. for json_path in tqdm(json_paths):
    9. # for json_path in json_paths:
    10. path = os.path.join(json_dir, json_path)
    11. with open(path, 'r') as load_f:
    12. json_dict = json.load(load_f)
    13. h, w = json_dict['imageHeight'], json_dict['imageWidth']
    14. # save txt path
    15. txt_path = os.path.join(save_dir, json_path.replace('json', 'txt'))
    16. txt_file = open(txt_path, 'w')
    17. for shape_dict in json_dict['shapes']:
    18. label = shape_dict['label']
    19. label_index = classes.index(label)
    20. points = shape_dict['points']
    21. points_nor_list = []
    22. for point in points:
    23. points_nor_list.append(point[0] / w)
    24. points_nor_list.append(point[1] / h)
    25. points_nor_list = list(map(lambda x: str(x), points_nor_list))
    26. points_nor_str = ' '.join(points_nor_list)
    27. label_str = str(label_index) + ' ' + points_nor_str + '\n'
    28. txt_file.writelines(label_str)
    29. if __name__ == "__main__":
    30. """
    31. python json2txt_nomalize.py --json-dir my_datasets/color_rings/jsons --save-dir my_datasets/color_ringsts --classes "cat,dogs"
    32. """
    33. parser = argparse.ArgumentParser(description='json convert to txt params')
    34. parser.add_argument('--json-dir', type=str, default=r'json', help='json path dir')
    35. parser.add_argument('--save-dir', type=str, default=r'txt',help='txt save dir')
    36. parser.add_argument('--classes', type=str,default="1", help='classes')
    37. args = parser.parse_args()
    38. json_dir = args.json_dir
    39. save_dir = args.save_dir
    40. classes = args.classes
    41. convert_label_json(json_dir, save_dir, classes)
  5. 转换为txt文件后,划分一下数据集,进行训练(此步骤有手就行,在此不演示了)

  6. 将你训练得到的best.pt通过gen_wts.py转换为wts文件,为了方便操作,将best.pt放入目录下,终端输入:python gen_wts.py -w best.pt

     gen_wts.py的代码如下

    1. import sys
    2. import argparse
    3. import os
    4. import struct
    5. import torch
    6. from utils.torch_utils import select_device
    7. def parse_args():
    8. parser = argparse.ArgumentParser(description='Convert .pt file to .wts')
    9. parser.add_argument('-w', '--weights', required=True,
    10. help='Input weights (.pt) file path (required)')
    11. parser.add_argument(
    12. '-o', '--output', help='Output (.wts) file path (optional)')
    13. parser.add_argument(
    14. '-t', '--type', type=str, default='detect', choices=['detect', 'cls'],
    15. help='determines the model is detection/classification')
    16. args = parser.parse_args()
    17. if not os.path.isfile(args.weights):
    18. raise SystemExit('Invalid input file')
    19. if not args.output:
    20. args.output = os.path.splitext(args.weights)[0] + '.wts'
    21. elif os.path.isdir(args.output):
    22. args.output = os.path.join(
    23. args.output,
    24. os.path.splitext(os.path.basename(args.weights))[0] + '.wts')
    25. return args.weights, args.output, args.type
    26. pt_file, wts_file, m_type = parse_args()
    27. print(f'Generating .wts for {m_type} model')
    28. # Initialize
    29. device = select_device('cpu')
    30. # Load model
    31. print(f'Loading {pt_file}')
    32. model = torch.load(pt_file, map_location=device) # load to FP32
    33. model = model['ema' if model.get('ema') else 'model'].float()
    34. if m_type == "detect":
    35. # update anchor_grid info
    36. anchor_grid = model.model[-1].anchors * model.model[-1].stride[..., None, None]
    37. # model.model[-1].anchor_grid = anchor_grid
    38. delattr(model.model[-1], 'anchor_grid') # model.model[-1] is detect layer
    39. # The parameters are saved in the OrderDict through the "register_buffer" method, and then saved to the weight.
    40. model.model[-1].register_buffer("anchor_grid", anchor_grid)
    41. model.model[-1].register_buffer("strides", model.model[-1].stride)
    42. model.to(device).eval()
    43. print(f'Writing into {wts_file}')
    44. with open(wts_file, 'w') as f:
    45. f.write('{}\n'.format(len(model.state_dict().keys())))
    46. for k, v in model.state_dict().items():
    47. vr = v.reshape(-1).cpu().numpy()
    48. f.write('{} {} '.format(k, len(vr)))
    49. for vv in vr:
    50. f.write(' ')
    51. f.write(struct.pack('>f', float(vv)).hex())
    52. f.write('\n')

 三、TensorRT

  1. 下载与YOLOv5-7.0对应的tensorrt分割版本wang-xinyu/tensorrtx: Implementation of popular deep learning networks with TensorRT network definition API (github.com)
  2. 使用cmake解压,嫌麻烦直接自己配置也行
  3. TensorRT的配置我之前文章里面有写,不清楚的可以去看一下Windows YOLOv5-TensorRT部署_tensorrt在windows部署_Mr Dinosaur的博客-CSDN博客
  4. 打开config.h,修改一下自己的检测类别和图片大小
  5. 打开yolov5_seg.cpp,找到主函数进行文件路径修改
  6. 如果你显源码运行麻烦(我就是),当然也可以自行修改去生成它的engine引擎文件,引擎文件生成后即可进行分割测试
  7. 分割结果推理速度一般吧,比检测要慢一些

 

 

四、总结

  • 部署的话基本就这些操作,可以将接口进行封装,方便之后调用,需要的话我之后再更新吧
  • 分割的速度要比检测慢了快有10ms左右,对速度有要求的话需要三思
  • 分割对大目标比较友好,如果你想检测小目标的话还是使用目标检测吧

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/320110
推荐阅读
相关标签
  

闽ICP备14008679号