赞
踩
目录
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
如果需要在 cpu 上运行量化后的模型(ChatGLM2-6B-int4),还需要安装 gcc 与 openmp。多数 Linux 发行版默认已安装。对于 Windows ,可在安装 TDM-GCC 时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0, Linux 为 gcc 11.3.0。
参考博客:Windows安装tdm-gcc并勾选openMP(详细图文)-CSDN博客
百度安装
下载地址:https://github.com/THUDM/ChatGLM2-6B
从 Github 下载 ChatGLM2-6B 仓库,然后进入仓库目录使用 pip 安装依赖,
transformers
库版本推荐为 4.30.2
,torch
推荐使用 2.0 及以上的版本,以获得最佳的推理性能
(1)在D盘打开命令提示窗口,默认下载到当前目录
git clone https://github.com/THUDM/ChatGLM2-6B
(2)切换到chatGLM2-6B目录
cd ChatGLM2-6B
(3)创建conda的虚拟环境,指定Python的版本
conda create -n chatglm2-6b python=3.8
(4)激活环境
conda activate chatglm2-6b
(5)下载依赖包
pip install -r requirements.txt
(1)在github地址:https://github.com/THUDM/ChatGLM2-6B
解压到你自己的目录
(2)切换到ChatGLM2-6B目录
cd ChatGLM2-6B
(3)创建conda的虚拟环境,指定Python的版本
conda create -n chatglm2-6b python=3.8
(4)激活环境
conda activate chatglm2-6b
(5)下载依赖包
pip install -r requirements.txt
从 Hugging Face Hub 下载模型需要先安装Git LFS ,若安装了Git LFS可在windows命令提示符中运行如下命令检查版本 git lfs --version
若存在Git LFS,则运行:
- git lfs install
-
- git clone https://huggingface.co/THUDM/chatglm2-6b
访问地址:https://huggingface.co/THUDM/chatglm2-6b-int4/tree/main
把下图中所有的文件下载之后,放在ChatGLM2-6B的新建的model目录下。
CPU模式:量化版,经测试就速度比较慢。
model = AutoModel.from_pretrained("THUDM/chatglm2-6b-int4",trust_remote_code=True).float()
ChatGLM2-6B 提供了三种使用方式:命令行 Demo,网页版 Demo 和 API 部署;在启动模型之前,需要找到对应启动方式的 python 源码文件,命令行模式(cli_demo.py),网页版(web_demo.py或web_demo2.py),API部署(api.py或openai_api.py) 中修改代码。
ChatGLM2-6B目录用到的文件:
(1)修改cli_demo.py的代码,根据自己目录结构修改。
(2)启动命令行demo
python cli_demo.py
效果如下:
(1)修改web_demo.py的代码
根据自己的训练模型位置更改代码。
(2)启动基于 Gradio 的网页版 demo:
python web_demo.py
效果如下:
(3)启动基于 Streamlit 的网页版 demo
streamlit run web_demo2.py
实现了 OpenAI 格式的流式 API 部署,可以作为任意基于 ChatGPT 的应用的后端,比如 ChatGPT-Next-Web。可以通过运行仓库中的openai_api.py 进行部署
(1)安装额外的依赖
pip install fastapi uvicorn
(2)修改api.py的代码
根据自己的训练模型位置更改代码
(3)启动API模型
python openai_api.py
1.在启动cli_demo.py的时报错:No module named 'readline'
解决方法:下载pyreadline3
pip: pip install pyreadline3 or python -m pip install pyreadline
mamba: mamba install -c conda-forge pyreadline3
conda: conda install -c conda-forge pyreadline3
作者采用的是pip install pyreadline3,下载完成之后,重新运行python cli_demo.py即可。
2.在启动web_demo.py时,报错:
Traceback (most recent call last):
File "web_demo.py", line 91, in <module>
user_input = gr.Textbox(show_label=False, placeholder="Input...", lines=10).style(
AttributeError: 'Textbox' object has no attribute 'style'
解决方法:pip默认安装最新版本,降低版本即可。
卸载gradio
pip uninstall gradio
安装指定版本
pip install gradio==3.50.0
3.问题报错:FileNotFoundError: Could not find module 'C:\Users\EDY\.cache\huggingface\modules\transformers_modules\model\quantization_kernels_parallel.so' (or one of its dependencies). Try using the full path with constructor syntax.
解决方法:不影响程序运行。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。