当前位置:   article > 正文

ChatGLM2-6B安装部署(详尽版)_chatglm2-6b部署

chatglm2-6b部署

1、环境部署

合理的上网工具

安装Anaconda3

安装GIT

安装GUDA 11.8

安装NVIDIA 图形化驱动 522.25版本,如果电脑本身是更高版本则不用更新

1.1、检查CUDA

运行cmd或者Anaconda,运行以下命令,如果显示的版本不是11.8也不用着急,可能是系统自带的CUDA版本

nvidia-smi

 CUDA Version是版本信息,Dricer Version是图形化驱动版本

安装 python-3.8

安装Pytorch,用Anaconda,运行以下命令

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

安装python开发工具, pycharm或者VSCode

1.2、检查Pytorch

新建文件pytorch.py

  1. import torch
  2. print(torch.__version__)
  3. print(torch.version.cuda)

运行效果如下,cu118对应CUDA11.8版本 

2、ChatGLM2下载

用Anaconda,运行以下命令,如果想要下载指定文件夹,用cd切换

  1. git clone https://github.com/THUDM/ChatGLM2-6B
  2. cd ChatGLM2-6B

 以下是执行效果,下载到C:\Users\cteate\ChatGLM2-6B

安装依赖,用Anaconda,运行以下命令,记得cd切换到ChatGLM2-6B文件夹

pip3 install -r requirements.txt

3、手动下载模型到本地(不用梯子)

访问清华云盘:清华大学云盘 (tsinghua.edu.cn)进行下载

保存模型至文件夹,我这里保存到E:\ChatGLM2-6B,运行时修改模型路径,如下图:

4、运行ChatGLM2

4.1运行web示例

运行web_demo.py(如果没有下载模型到本地,不用修改,执行自动下载模型)

模型地址:C:\Users\用户名\.cache\huggingface\hub\models--THUDM--chatglm2-6b\snapshots\

 第一次执行会下载模型文件,下载到C:\Users\用户名\.cache\huggingface\hub下

PS:如果运行下载中断,可以多运行几次

运行成功后,界面:

4.2运行API

安装依赖,cd 转到ChatGLM文件夹(如:cd E:\ChatGLM2-6B-main),再用Anaconda,运行以下命令

pip install fastapi uvicorn

再运行以下命令:

python api.py

启动后效果:

用PostMan测试

5、注意事项

5.1第一次运行切换python版本(使用pycharm开发工具)

 

 

 切换的时候等右下角加载完,代码错误提示就没有了

6、错误合集

6.1运行web_demo2.py,提示streamlit不是内置函数

 用Anaconda,运行以下命令

pip install streamlit
添加环境变量-环境变量-系统变量-Path-编辑,点击新建,然后添加包含 streamlit.exe 可执行文件的目录路径。
路径参考:C:\Users\用户名\AppData\Roaming\Python\Python311\Scripts

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/251609
推荐阅读
相关标签
  

闽ICP备14008679号