当前位置:   article > 正文

Windows 搭建自己的大模型-通义千问_windows 部署通义千问

windows 部署通义千问

1、安装 pytorch   https://pytorch.org/get-started/locally/ 点击进入官网,如图选择自己的环境得到pip安装依赖的命令:

pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cpu

2、拉取代码并安装依赖

  1. # 拉取代码
  2. git clone https://github.com/QwenLM/Qwen-7B.git
  3. # 进入代码目录
  4. cd Qwen-7B
  5. # 安装依赖
  6. pip install -r requirements.txt
  7. # 安装 web_demo 依赖
  8. pip install -r requirements_web_demo.txt

检出的项目为启动项目:Qwen-7B,不包含预训练好的模型文件。

3、启动模型

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

不出意外的话,这里要出现意外了。OSError: We couldn't connect to 'https://huggingface.co' to load this file,大意是不能连接到https://huggingface.co下载模型文件。因为这个地址国内访问不了。只能自己下载模型文件到本地,离线启动。

4、模型下载

去魔搭官网下载:https://www.modelscope.cn/models/qwen/Qwen-7B-Chat/files

点击【下载模型】按钮,得到git仓库检出命令:

git clone https://www.modelscope.cn/qwen/Qwen-7B-Chat.git

检出模型到本地目录,例如:D:\Qwen\Qwen-7B-Chat

5、修改启动项目:Qwen-7B

找到web_demo.py文件,如图

将DEFAULT_CKPT_PATH参数改为模型下载的路径:D:/Qwen/Qwen-7B-Chat

再次进行步骤3的python文件执行命令。即可启动成功

浏览器访问即可,如图

6、启动 openai api 形式的接口

安装依赖

pip install sse_starlette

启动API接口服务

python openai_api.py --server-port 8086 --server-name "0.0.0.0"

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/737850
推荐阅读
相关标签
  

闽ICP备14008679号