赞
踩
(引自https://www.modelscope.cn/models/qwen/Qwen1.5-0.5B-Chat-GGUF/summary、https://blog.csdn.net/df19900725/article/details/136051040)
Qwen1.5(通义千问1.5)是阿里云最近推出的开源大型语言模型系列,包含多个规模,从0.5B到72B,满足不同的计算需求(本文介绍0.5b),是Qwen2的beta版,是一个基于Transformer架构的仅解码器语言模型,预训练于大量数据上。与之前发布的Qwen相比,改进包括:
接下来我们开始规模为0.5B的Qwen1.5模型部署
python代码如下所示:
from modelscope.hub.file_download import model_file_download
model_dir = model_file_download(model_id='qwen/Qwen1.5-0.5B-Chat-GGUF',file_path='qwen1_5-0_5b-chat-q5_k_m.gguf',
revision='master',cache_dir='/mnt/workspace')
(别忘了将’/mnt/workspace’改为对应路径)
在命令行中运行代码
python <文件名>.py
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make -j
./main -m /mnt/workspace/qwen/Qwen1.5-0.5B-Chat-GGUF/qwen1_5-0_5b-chat-q5_k_m.gguf -n 512 --color -i -cml
至此,你已经部署好了qwen1.5-0.5b,可以在窗口进行对话。
首先去github下载所需的文件,链接如下:
https://github.com/OpenVINO-dev-contest/Qwen2.openvino
创建目录并在该目录下创建两个.py文件和一个.txt文件
并将代码复制进对应的文件
接着
创建Python虚拟环境:
python -m venv qwenVenv
source qwenVenv/bin/activate
安装依赖的包:
pip install wheel setuptools
pip install -r requirements.txt
(在终端中一行一行执行即可)
成功后如下图所示:
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False Qwen/Qwen1.5-0.5B-Chat --
local-dir {your_path}/Qwen1.5-0.5B-Chat
(同样在终端中运行)
成功后如下图所示:
在这里需使用第1步创建的两个.py文件
python3 convert.py --model_id Qwen/Qwen1.5-0.5B-Chat --precision int4 --output {your_path}/Qwen1.5-0.5B-Chat-ov
python3 chat.py --model_path {your_path}/Qwen1.5-0.5B-Chat-ov --max_sequence_length 4096 --device CPU
转换和加载成功如下图所示:
至此,Qwen2.0也部署完毕,可进行对话,如下图:
此次LLM实验是本人部署大模型的初体验,Qwen1.5和2.0以及其他开源模型的亲身部署与使用过程,加深了我对大模型的理解和认识,通过接触模型库,从本质上见证了语言模型的核心,同时也加强了对linux系统的使用熟练度,相信大家也有丰富收获。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。