赞
踩
目录
2.1 举例:创建onnxruntime-gpu==1.14.1的conda环境
runtime指的是程序运行环境,是计算机系统中负责程序运行的组件。在编写程序时,需要考虑程序与运行环境之间的交互,以及程序在运行时所需的资源和环境。
在不同的编程语言中,runtime的实现方式也会有所不同。例如在Java中,runtime由Java虚拟机(JVM)实现,而在C++中,runtime可能由操作系统提供的动态链接库(DLL)实现。
通常情况下,程序员不需要直接操作runtime。但是,在调试程序或优化程序性能时,需要对runtime有一定的了解和掌握。此外,一些高级编程技术,如反射和动态加载,也需要使用runtime的相关功能。
onnx 模型在 CPU 上进行推理,在conda环境中直接使用pip安装即可
pip install onnxruntime
安装 onnxruntime-gpu 注意事项:
onnxruntime-gpu包含onnxruntime的大部分功能。如果已安装onnruntime要把onnruntime卸载掉。
安装时一定要注意与CUDA、cuDNN版本适配问题,具体适配列表参考:CUDA Execution Provider
- >>> import onnxruntime
- >>> onnxruntime.get_device()
- 'GPU' #表示GPU可用
- >>> onnxruntime.get_available_providers()
- ['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider']
在 conda 环境中安装,不依赖于 本地主机 上已安装的 cuda 和 cudnn 版本,灵活方便。
如果需要其他的版本, 可以根据 onnxruntime-gpu, cuda, cudnn 三者对应关系自行组合测试。
- ## 创建conda环境
- conda create -n torch python=3.8
-
- ## 激活conda环境
- source activate torch
- conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3 -c pytorch -c conda-forge
- conda install cudnn==8.2.1
- pip install onnxruntime-gpu==1.14.1
- ## pip install ... (根据需求,安装其他的包)
-
- import onnxruntime
- import numpy as np
-
- device_name = 'cuda:0' # or 'cpu'
- print(onnxruntime.get_available)
-
- if device_name == 'cpu':
- providers = ['CPUExecutionProvider']
- elif device_name == 'cuda:0':
- providers = ['CUDAExecutionProvider', 'CPUExecutionProvider']
- # Create inference session
- onnx_model = onnxruntime.InferenceSession('slowfast.onnx', providers=providers)
- # Create the input(这里的输入对应slowfast的输入)
- data = np.random.rand(1, 1, 3, 32, 256, 256).astype(np.float32)
- # Inference
- onnx_input = {onnx_model.get_inputs()[0].name: data}
- outputs = onnx_model.run(None, onnx_input)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。