赞
踩
香橙派 AIpro(OrangePi AIpro)是一款面向AI开发的强大开发板,提供了高性能和多功能的开发环境。我将结合自己的开发经验,详细介绍这款开发板的性能、适用场景及使用体验。
香橙派 AIpro配备了强大的硬件配置,包括8GB内存、电源、散热组件和32GB存储卡。这些硬件为AI开发提供了充足的资源和稳定的运行环境。
OrangePi AIpro(8T)采用昇腾AI技术路线,4核64位处理器+AI处理器,集成图形处理器,支持8TOPS AI算力,拥有8GB/16GB LPDDR4X,可以外接32GB/64GB/128GB/256GB eMMC模块,支持双4K高清输出。 Orange Pi AIpro引用了相当丰富的接口,包括两个HDMI输出、GPIO接口、Type-C电源接口、支持SATA/NVMe SSD 2280的M.2插槽、TF插槽、千兆网口、两个USB3.0、一个USB Type-C 3.0、一个Micro USB(串口打印调试功能)、两个MIPI摄像头、一个MIPI屏等,预留电池接口,可广泛适用于AI边缘计算、深度视觉学习及视频流AI分析、视频图像分析、自然语言处理、智能小车、机械臂、人工智能、无人机、云计算、AR/VR、智能安防、智能家居等领域,覆盖 AIoT各个行业。 Orange Pi AIpro支持Ubuntu、openEuler操作系统,满足大多数AI算法原型验证、推理应用开发的需求。
安装香橙派 AIpro非常简单,按照官方提供的说明书,连接好电源、散热组件和存储卡,整个过程不到三分钟。
到手后如图所示:有一个板子、一个充电器,然后板子上已经装好了风扇和sd卡,sd卡预装了 orange pi 的 linux 系统(系统是官方定制的Ubuntu20.04,也可以换为openEuler版本)。
香橙派 AIpro支持多种操作系统,包括Ubuntu和openEuler。到手的办卡已经内置了Ubuntu系统。如果需要替换,去官网论坛下载其他镜像,通过烧录工具将系统镜像写入存储卡后,插入开发板,接通电源即可启动。
下载地址:http://www.orangepi.cn/html/hardWare/computerAndMicrocontrollers/service-and-support/Orange-Pi-AIpro.html
登录方式主要有两种,一种是通过远程ssh,给香橙派插入网线,然后找到其局域网地址,ssh上即可。另一种是直接给开发板接屏幕、键盘、鼠标。我是后面这种方案。(如下图所示)。
由于Orange Pi AI Pro 已经内置了 wifi 模块,我单独准备的有:
刚好我手上都有,所以直接开始下一步。
为了测试香橙派 AIpro的性能,我选择了一个常见的机器学习任务——图像分类。在开发板上运行了一个预训练的卷积神经网络模型,整个推理过程非常流畅,处理速度也很快,充分展示了这款开发板的强大性能。
在 /opt/opi_test 下预置有一些测试代码可以体验。
香橙派默认密码:Mind@123
su # 记得需要root
cd /opt/opi_test
# 这里有很多测试代码,可供学习
cd ResnetPicture/scripts/
bash sample_run.sh
# 如果这里报错大概率是没root登录导致的
参考项目:https://gitee.com/ascend/EdgeAndRobotics/tree/master/Samples/HandWritingTrainAndInfer
git clone https://gitee.com/ascend/EdgeAndRobotics.git
# 切换到样例目录
cd EdgeAndRobotics/Samples/Mnist_For_Pytorch
Pytorch 安装参考官方文档:https://www.hiascend.com/document/detail/zh/canncommercial/700/envdeployment/instg/instg_0046.html
注意版本:PyTorch2.1.0、torchvision1.16.0
# torch_npu由于需要源码编译,速度可能较慢,本样例提供 python3.9,torch2.1版本的torch_npu whl包
wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/torch_npu-2.1.0rc1-cp39-cp39-linux_aarch64.whl
# 使用pip命令安装
pip3 install torch_npu-2.1.0rc1-cp39-cp39-linux_aarch64.whl
配置离线推理所需的环境变量:
# 配置程序编译依赖的头文件与库文件路径
export DDK_PATH=/usr/local/Ascend/ascend-toolkit/latest
export NPU_HOST_LIB=$DDK_PATH/runtime/lib64/stub
安装离线推理所需的ACLLite库(参考https://gitee.com/ascend/ACLLite)
CANN版本要求: 7.0及以上社区版本。【参考https://www.hiascend.com/zh/document安装CANN】
# 我这里是ubuntu
apt-get install ffmpeg libavcodec-dev libswscale-dev libavdevice-dev
# 拉取ACLLite仓库,并进入目录
git clone https://gitee.com/ascend/ACLLite.git
cd ACLLite
# 设置环境变量,其中DDK_PATH中/usr/local请替换为实际CANN包的安装路径
export DDK_PATH=/usr/local/Ascend/ascend-toolkit/latest
export NPU_HOST_LIB=$DDK_PATH/runtime/lib64/stub
# 安装,编译过程中会将库文件安装到/lib目录下,所以会有sudo命令,需要输入密码
bash build_so.sh
到现在完成了基础环境的安装。下面是运行配置:
设置环境变量减小算子编译内存占用
export TE_PARALLEL_COMPILER=1
export MAX_COMPILE_CORE_NUMBER=1
# 运行训练脚本
python3 main.py
训练脚本后,会自动下载Mnist数据集,数据集目录结构如下:
├── dataset
├──MNIST
├──raw
│──train-labels-idx1-ubyte.gz
│──train-labels-idx1-ubyte
│──train-images-idx3-ubyte.gz
│──train-images-idx3-ubyte
│──t10k-labels-idx1-ubyte.gz
│──t10k-labels-idx1-ubyte
│──t10k-images-idx3-ubyte.gz
│──t10k-images-idx3-ubyte
执行以下命令,将训练生成的mnist.pt转换mnist.onnx模型:mnist.onnx模型生成在当前路径下
python3 export.py
执行以下命令,获取在线推理的测试图片。
cd data
wget https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/wanzutao/mnist/8.jpg
执行在线推理。
cd ../onnxInfer/
python3 infer.py
模型可以正确识别为8。
因为我这里没有usb摄像头,所以就不进行目标检测的演示了。
香橙派 AIpro适用于多种AI开发场景,包括但不限于:
总体来说,香橙派 AIpro是一款性能优越的AI开发板,硬件配置强大,开发环境友好,适用于多种AI应用场景。特别是在图像处理和边缘计算方面,表现尤为出色。非常适合硬件创客去做一些DIY应用。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。