赞
踩
中括号里的为查询结果示例。
– 查看系统架构:uname -a
[aarch64,也称arm64]
– 查看操作系统版本:lsb_release -a
[Ubuntu 22.04.3 LTS]
– 查看npu芯片型号:npu-smi info
[Ascend310B4]
– 查看npu id:npu-smi info -l
– 查看Atlas产品型号:npu-smi info -t product -i <npu id>
[Atlas 200I A2]
此种使用场景下,cpu或gpu上训练的模型无法直接在nup上执行推理,需要先把训练好的模型转换成.om离线模型,才可以在NPU上执行后续的推理。
step1:在已安装CANN
开发
环境的机器上,把cpu或gpu上训练的模型转换成.onnx格式 或 pd格式
step2:在安装CANN运行
环境的机器上,把onnx格式转om格式。
对应CANN开发环境
、运行环境
的区别、安装方法见官方文档:CANN软件安装
① 官方gitee项目-支持tensorflow、pytorch的模型转换 这里已经集成了多种开源模型从
初始模型 —> onnx模型 —> om模型
的转换操作步骤
和对应代码
。
- 第一阶段:模型转onnx需要写代码完成;
- 第二阶段:.onnx转.om使用
atc
命令完成,无须写代码。② 仅
onnx模型 —> om模型
的转换案例:昇腾社区简单ATC转换案例
③ om模型的推理应用案例 这里的快速链接是昇腾社区下pytorch的应用案例,昇腾社区也集成了其他训练框架的应用案例,可自行查看。
④ 其他网友的分享:[推理部署] 本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。