当前位置:   article > 正文

橙芯创想:香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码

橙芯创想:香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码

引言

在科技的浪潮中,一场融合智慧与创意的盛会正在启幕,《香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码》引领你步入一个全新的维度。握住香橙派AI Pro开发板,如同掌握了一把通往未来的钥匙,不仅驾驭着ChatCLM模型,更将Stable Diffusion的力量纳入掌中,从零开始编织属于自己的智能织锦。

一. 香橙派AI PRO配置以及展示

在这里插入图片描述

优秀的扩展能力

​ 香橙派AI Pro,作为一款高性能的边缘计算平台,展现出非凡的扩展能力。它配备了丰富的I/O接口,包括但不限于USB、HDMI、网络接口以及GPIO端口,支持多种传感器、显示器和外部存储设备的直接连接。这种高度的兼容性和灵活性,使得开发者能够根据项目需求轻松扩展硬件配置,无论是构建复杂的机器人系统、智能物联网网关,还是高性能的边缘计算服务器,香橙派AI Pro都能提供坚实的技术支撑。

在这里插入图片描述

实物展示

在这里插入图片描述

在这里插入图片描述

二、Ascend-LLM模型部署

开机

香橙派AI Pro内置镜像,如果没有对高版本镜像的需求可以即插即用。

需要显示器、键盘、鼠标各一份。

默认壁纸还是非常漂亮的。默认密码:Mind@123

在这里插入图片描述

xshell连接香橙派

连接网络之后通过ifconfig查看ip地址。

在这里插入图片描述

通过ip+账号即可通过shell工具实现远程连接。我们选择xshell作为shell工具。

实战运行部署

我们选择南京大学开源的一套基于香橙派 AIpro部署的Tiny-Llama语言模型。充分释放性能。

gitee地址:[ChatGLM3 ManualReset: chatglm3基于香橙派AIPro部署 (gitee.com)](https://gitee.com/wan-zutao/chatglm3-manual-reset)

在这里插入图片描述

本地通过网络下载zip包通过xshell导入香橙派即可。

unzip 命令可以解压文件夹。

后面发现镜像自带git,无需下载,直使用git命名下载。

git clone https://gitee.com/wan-zutao/chatglm3-manual-reset.git

在这里插入图片描述

cd inference进入inference目录

bash downlado.sh 下载模型,大概11GB,网速快的几分钟即可。

在这里插入图片描述

python3 main.py 启动程序

在这里插入图片描述

从打印日志找到访问的url
在这里插入图片描述

可以非常愉快的和 Ascend-llm交互了。
在这里插入图片描述
在这里插入图片描述

通过top命名查看系统情况

  • CPU使用率:当前为29.1%,4.1%用于用户空间进程,4.1%用于内核空间,64.1%处于空闲状态。
  • 内存使用情况:总物理内存大小是7543.6 MiB,已用5287.6 MiB,剩余1586.9 MiB可用,交换内存总量为2048.0 MiB,已使用163.2 MiB,剩余1884.8 MiB未被使用。

在这里插入图片描述

运行结果分析

Ascend-LLM
部署过程中,香橙派AIPRO的兼容性和易用性得到了充分验证,使得模型能够迅速在边缘设备上实现落地。得益于其内置的NPU加速单元,Ascend-LLM的运行效率得到了显著提升,即使在资源受限的环境中也能保持高效的推理速度。

模型运行效率
得益于内置的NPU加速单元,Ascend-LLM模型在香橙派AI Pro上的运行效率显著提升,即使在资源受限的边缘设备上,也能保持高效的推理速度。

资源消耗
通过top命令监控系统状态,显示CPU使用率为29.1%,其中4.1%用于用户空间进程,4.1%用于内核空间,而64.1%处于空闲状态。内存方面,总物理内存为7543.6MiB,已用5287.6MiB,剩余1586.9MiB可用,交换内存总量为2048.0MiB,已使用163.2MiB,剩余1884.8MiB未被使用。

开发版表现

负载管理
香橙派AI Pro在处理模型时,尽管CPU和内存有一定的使用率,但整体仍有较大的余量,表明其具备良好的资源管理能力,能够在运行复杂模型的同时保持系统的稳定运行。

散热性能
在启动初期,大约10秒钟会有轻微的噪音,这是预热阶段正常现象。之后,开发板运行时几乎无声,风扇运行平稳,没有明显的噪音波动。长时间使用后,散热片温度适中,证明散热设计有效,有助于维持设备长期稳定运行。

三、Stable Diffusion

另外使用香橙派AIPRO部署了Stable Diffusion,来看看算力表现如何。

文生图

文生图是指通过输入文本描述,让Stable Diffusion模型生成与之匹配的图像。这个过程涉及到模型的推理和图像的生成。用户可以通过在工作区输入文本,然后在调参区调整参数,来生成符合自己需求的图像。

在这里插入图片描述 在这里插入图片描述

性能表现

Stable Diffusion
​对于Stable Diffusion这样的模型,通常在GPU或专用AI加速器上运行,其处理时间可以从几秒到几十秒不等,具体取决于上述因素。由于Stable Diffusion模型较为复杂,即使在高端GPU上,生成一张图像也可能需要几秒到十几秒的时间。但是,由于香橙派AI Pro的AI算力达到了20TOPS,它能够较快地处理此类任务。香橙派AI Pro的AI核心可以加速深度学习任务,但在处理复杂模型时可能不会像高端GPU那样快。在优化良好的条件下,使用香橙派AI Pro开发板生成一张图像的时间可能会在10秒到30秒之间,但这只是一个估计范围,实际时间可能会有所不同,具体取决于模型的具体配置和优化情况。

四、体验总结

性能

配置不输我自己的电脑,在跑AI模型的时候更是拉开了一大段差距。

硬件规格参数

CPU4核64位处理器+ AI处理器 1个DaVinciV300 AI core,主频1.224GHz 4个TAISHANV200M处理器核,主频1.6GHz
AI算力20TOPS算力
内存LPDDR4X:12GB/24GB(可选),速率:4266Mbps
存储·支持eMMC模块:32GB/64GB/256GB ·SATA/NVME SSD(M.2接口2280) ·SPI Flash: 32MB ·TF插槽
WIFI+蓝牙Wi-Fi 5双频+BT 4.2,BLE
以太网收发器双2.5G以太网
显示·2 * HDMI TX 2.0输出,最大支持4K@60FPS ·1 * MIPI DSI 4-Lane 输出
摄像头2 * MIPI CSI 4-Lane摄像头接口
USB3 * USB 3.0 HOST 1 * USB Type-C 3.0 HOST/Device(兼容USB2.0) 1 * Type-C串口打印功能
音频3.5mm耳机孔音频输入/输出
按键1开机键、1RESET键、1启动拨动键、1BOOT键
40PIN40PIN 功能扩展接口,支持以下接口类型: GPIO、UART、I2C、SPI、PWM
风扇风扇接口*1
预留接口预留2PIN电池接口
电源Type-C PD 20V IN ,标准65W
支持的操作系统Ubuntu、openEuler
产品尺寸115.23mm83.26mm1.6mm
重量120.5g

噪音

启动时,会经历大概十秒钟的轻微噪音,这是预热阶段。之后,就几乎听不到声音了。在处理模型的过程中,风扇的响声很平稳,没什么起伏。我用了好几个小时,这期间,风扇一直很安静。而且,散热片摸着不烫,说明设备散热做得挺好。

便捷性

仅需配备鼠标、键盘与显示器,即可实现全面操作。此板体积精巧,工艺细致,便携特性显著,轻而易举纳入随身口袋,随时随地展开工作或学习,移动性极佳。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/861368
推荐阅读
相关标签
  

闽ICP备14008679号