当前位置:   article > 正文

大模型_1、服务器部署大模型 ChatGLM3_在服务器上起一个大模型的服务

在服务器上起一个大模型的服务

01 环境准备

1.1、升级apt

  1. cd /home/jovyan/work/ChatGLM3/chatglm3-6b/ #进入你文件夹地址
  2. apt-get update

1.2、安装Linux需要库

  1. sudo apt-get update
  2. sudo apt-get install yum
  3. sudo apt-get install curl

1.3 、安装lfs

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash

02数据权重

2.1、下载 ChatGLM3

 gitjhub:GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型

git clone https://github.com/THUDM/ChatGLM3

gitee:

ChatGLM3: fork : https://github.com/THUDM/ChatGLM3 (gitee.com)

git clone https://gitee.com/aqua/ChatGLM3

2.2、下载预训练模型

用 Git LFS 从 Hugging Face Hub 将模型下载到本地,从本地加载模型响应速度更快

  1. git lfs install
  2. git clone https://huggingface.co/THUDM/chatglm3-6b

从 HuggingFace 下载比较慢,可以从 ModelScope 中下载 

  1. git lfs install
  2. git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.gi

03配置文件

3.1、ChatGLM3-6B 提供多种运行方式,包括命令行界面、Streamlit 界面和 REST API。

  1. conda activate pytorch #进入python环境
  2. pip install -r requirements.txt #安库

3.2修改文件路径及设置

web_demo_streamlit.py为例:

将加载模型的路径修改为:

 

  1. cd basic_demo
  2. # 命令行界面
  3. vim clidemo.py
  4. python clidemo.py
  5. #Streamlit 界面
  6. vim web_demo_streamlit.py
  7. streamlit run web_demo_streamlit.py --server.port 7000

得到:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/946404
推荐阅读
相关标签
  

闽ICP备14008679号