当前位置:   article > 正文

在阿里云上部署ChatGLM3_chatglm 阿里云

chatglm 阿里云

一、申请阿里云机器学习平台PAI

参考【大模型-第一篇】在阿里云上部署ChatGLM3_使用阿里云服务器部署大模型-CSDN博客

二、部署GLM3

1、环境搭建

默认已经帮我们配置好了环境变量、网络,装好了python甚至pytorch、tensorflow等等,所以这些正常比较麻烦的操作已经不需要我们再搞了。直接下一步

2、git下载GLM3

2.1 git clone下载GLM3仓库
2.1.1首先git clone下载GLM3仓库,并切换到这个文件夹下
  1. git clone https://github.com/THUDM/ChatGLM3
  2. cd ChatGLM3
2.1.2 然后使用 pip 安装依赖:在requirements.txt文件中加入mdtex2html,执行下面代码
pip install -r requirements.txt
2.2 git 下载本地模型

因为模型很大(总共11.6GB),所以从modelscope上git下载(放到ChatGLM3下级目录中)

  1. git lfs install
  2. git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

3、修改变量路径并启用

有多文件需要修改变量路径,把默认的“THUDM/chatglm3-6b”修改为“/mnt/workspace/ChatGLM3/chatglm3-6b”

4、运行大模型

  1. cd /mnt/workspace/ChatGLM3/basic_demo/
  2. # 网页版
  3. streamlit run web_demo_streamlit.py --server.address=127.0.0.1
  4. # 这条报错connect error,降低gradio版本
  5. #python web_demo_gradio.py
  6. pip install gradio==3.39
  7. # 对话
  8. python cli_demo.py
  9. # 本地加载模型,启动demo
  10. cd composite_demo/
  11. streamlit run main.py --server.address=127.0.0.1

5、注意事项

conda的配置,将阿里云的源替换为清华的

  1. #打开配置文件
  2. vim /root/.condarc
  3. #全部删除,替换
  4. channels:
  5. - defaults
  6. custom_channels:
  7. conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  8. msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  9. bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  10. menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  11. pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  12. simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  13. default_channels:
  14. - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  15. - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  16. - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
  17. show_channel_urls: True
  18. #查看是否替换成功
  19. conda config --show-sources
  20. #conda新建空间
  21. conda create -n chatglm3-demo python=3.10
  22. #激活
  23. conda activate chatglm3-demo
  24. #退出conda
  25. conda deactivate

运行cli_demo.py,大模型对话卡顿,是因为没有优先调用GPU

  1. model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).eval()
  2. 替换为
  3. model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True, device_map="auto").eval()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/613831
推荐阅读
相关标签
  

闽ICP备14008679号