赞
踩
前面几篇博文,老牛同学和大家一起在个人电脑部署了Qwen2、GLM4、Llama3、ChatTTS和Stable Diffusion等 LLM 大模型,也通过 API 和 WebUI 的方式完成了体验。
但是这些大模型因为部署在个人电脑本地,不能够随时携带。如果能在手机上部署大模型的话,老牛同学感觉很有意义,手机与我们的生活更为密切相关,并且手机上也有大量的个人数据,与大模型交互起来也更加方便。同时,在手机上跑个大模型,还是很酷!
老牛同学期望能通过本文,和大家一起完成这项很酷且有意义的事情。老牛同学用的是小米 10 Pro手机,其配置参数如下:
受限于手机 CPU 和内存等硬件配置,我们要选择小语言模型(SLM)。其中,阿里开源了Qwen2-0.5B和Qwen2-1.5B两款小尺寸模型,微软了开源Phi-3 Mini(3.8B)和Phi-3 medium(14B)两款尺寸模型。
由于之前我们在笔记本部署了Qwen2-7B大模型,本次我们就在手机部署Phi-3 Mini模型,顺便也体验一下不同科技公司的大模型产品,其效果可以媲美GPT-3.5大模型:
Qwen2-7B本地部署:Qwen2 阿里最强开源大模型(Qwen2-7B)本地部署、API 调用和 WebUI 对话机器人
小米等安卓手机的基于 Linux 内核的操作系统,但是我们无法像在 Linux 那样执行 Linux 命令,因此我首先得配置一下 Linux 环境。
Termux是一个 Android 的终端模拟器,可以在 Android 设备上运行 Linux 命令和工具。Termux的 Android APP 可通过官网下载并安装:https://github.com/termux/termux-app/releases
当前官网的最新稳定版本:v0.118.1 - 2024-06-18 00.05
请根据手机情况,下载对应的 apk 文件。老牛同学下载的 apk 文件:termux-app_v0.118.1+github-debug_universal.apk
apk 安装成功后,打开Termux应用后,默认展示如下,就可以开始输入 Linux 命令了:
首先,我们安装proot-distro系统管理工具,proot-distro可以非常方便在 Termux 中安装、卸载和运行Linux 的发行版本(包括:Ubuntu、Debian、Arch Linux 等):
友情提示: 在手机中输入以下命令效率比较低,我们可以把命令发到微信,然后一条一条复制粘贴!
pkg install proot-distro
proot-distro 安装成功之后,我们安装Debian操作系统:
proot-distro install debian
最后,登录新安装的Debian操作系统:
proot-distro login debian
登录之后,自动启动了Shell命令行终端:root@localhost:~#
可以执行相关的 Linux 命令了:
通过上面的操作,我们已经在手机上安装好了Debian操作系统,接下来在Debian操作系统中安装Phi-3 Mini模型。
第一步: 在Debian系统中安装Ollama软件,没错,就是之前在个人电脑部署Llama3、Qwen2等大模型时,用于管理本地大模型的Ollama软件。由于我们在手机上安装了Debian系统,那么和电脑一样,Ollama也可以管理Debian系统本地部署的大模型:
# 安装Ollama软件
curl -fsSL https://ollama.com/install.sh | sh
Ollama安装成功输出信息如下:
第二步: 通过后台启动Ollama服务:nohup ollama serve &
我们用Ollama命令,查看 Ollama 信息,如:
ollama -v
ollama list
(目前还没有部署模型,因此结果列表为空)第三步: 通过Ollama安装并启动Phi-3 Mini模型:ollama run phi3:mini
Phi-3 Mini模型文件总大小为2.4GB左右,因此下载需要一点时间:
到此,Phi-3 Mini模型部署成功,我们可以体验手机上的大模型,比如:请用 100 个汉字解释一下,天空为什么是蓝色的?
相比电脑端,手机的算力弱太多,就算老牛同学用的是最小尺寸的模型(Phi-3 Mini),其推理的速度还是慢得多。其内容的输出速度,比我手机打字都要慢。盯着屏幕,看着模型一个字一个字的输出,感觉也挺有趣
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。