当前位置:   article > 正文

Phi-3 模型手机部署教程(微软发布的可与GPT-3.5媲美的小模型)_qwen2-0.5b 硬件配置

qwen2-0.5b 硬件配置

前面几篇博文,老牛同学和大家一起在个人电脑部署了Qwen2GLM4Llama3ChatTTSStable Diffusion等 LLM 大模型,也通过 API 和 WebUI 的方式完成了体验。

但是这些大模型因为部署在个人电脑本地,不能够随时携带。如果能在手机上部署大模型的话,老牛同学感觉很有意义,手机与我们的生活更为密切相关,并且手机上也有大量的个人数据,与大模型交互起来也更加方便。同时,在手机上跑个大模型,还是很酷!

老牛同学期望能通过本文,和大家一起完成这项很酷且有意义的事情。老牛同学用的是小米 10 Pro手机,其配置参数如下:

老牛同学手机配置

选择 Phi-3 微软开源模型

受限于手机 CPU 和内存等硬件配置,我们要选择小语言模型(SLM)。其中,阿里开源了Qwen2-0.5BQwen2-1.5B两款小尺寸模型,微软了开源Phi-3 Mini3.8B)和Phi-3 medium14B)两款尺寸模型。

由于之前我们在笔记本部署了Qwen2-7B大模型,本次我们就在手机部署Phi-3 Mini模型,顺便也体验一下不同科技公司的大模型产品,其效果可以媲美GPT-3.5大模型:

Phi-3性能评测报告

Qwen2-7B本地部署:Qwen2 阿里最强开源大模型(Qwen2-7B)本地部署、API 调用和 WebUI 对话机器人

手机配置 Linux 环境(Termux 应用)

小米等安卓手机的基于 Linux 内核的操作系统,但是我们无法像在 Linux 那样执行 Linux 命令,因此我首先得配置一下 Linux 环境。

Termux是一个 Android 的终端模拟器,可以在 Android 设备上运行 Linux 命令和工具。Termux的 Android APP 可通过官网下载并安装:https://github.com/termux/termux-app/releases

当前官网的最新稳定版本:v0.118.1 - 2024-06-18 00.05

Termux安装文件

请根据手机情况,下载对应的 apk 文件。老牛同学下载的 apk 文件:termux-app_v0.118.1+github-debug_universal.apk

apk 安装成功后,打开Termux应用后,默认展示如下,就可以开始输入 Linux 命令了:

Termux应用界面

手机上安装 Linux 操作系统

首先,我们安装proot-distro系统管理工具,proot-distro可以非常方便在 Termux 中安装卸载运行Linux 的发行版本(包括:Ubuntu、Debian、Arch Linux 等):

友情提示: 在手机中输入以下命令效率比较低,我们可以把命令发到微信,然后一条一条复制粘贴!

pkg install proot-distro
  • 1

proot-distro 安装成功之后,我们安装Debian操作系统:

proot-distro install debian
  • 1

Debian安装成功

最后,登录新安装的Debian操作系统:

proot-distro login debian
  • 1

登录之后,自动启动了Shell命令行终端:root@localhost:~#

可以执行相关的 Linux 命令了:

Debian系统命令

通过 Termux 安装 Phi-3 模型

通过上面的操作,我们已经在手机上安装好了Debian操作系统,接下来在Debian操作系统中安装Phi-3 Mini模型。

第一步:Debian系统中安装Ollama软件,没错,就是之前在个人电脑部署Llama3Qwen2等大模型时,用于管理本地大模型的Ollama软件。由于我们在手机上安装了Debian系统,那么和电脑一样,Ollama也可以管理Debian系统本地部署的大模型:

# 安装Ollama软件
curl -fsSL https://ollama.com/install.sh | sh
  • 1
  • 2

Ollama安装成功输出信息如下:

Ollama安装成功

第二步: 通过后台启动Ollama服务:nohup ollama serve &

我们用Ollama命令,查看 Ollama 信息,如:

  • 查看版本:ollama -v
  • 查看本地模型列表:ollama list(目前还没有部署模型,因此结果列表为

第三步: 通过Ollama安装并启动Phi-3 Mini模型:ollama run phi3:mini

Phi-3 Mini模型文件总大小为2.4GB左右,因此下载需要一点时间:

Phi-3 Mini安装成功

到此,Phi-3 Mini模型部署成功,我们可以体验手机上的大模型,比如:请用 100 个汉字解释一下,天空为什么是蓝色的?

Phi-3 Mini模型推理

总结

相比电脑端,手机的算力弱太多,就算老牛同学用的是最小尺寸的模型(Phi-3 Mini),其推理的速度还是慢得多。其内容的输出速度,比我手机打字都要慢。盯着屏幕,看着模型一个字一个字的输出,感觉也挺有趣

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/819084
推荐阅读
相关标签