赞
踩
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
我们选取了部分中英文典型数据集进行了评测,以下为 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文) 上的测评结果。
1、拉取docker镜像
docker pull nvcr.io/nvidia/pytorch:21.08-py3
【】需要 cuda 11.1 及以上版本
2、创建docker
nvidia-docker run -it -d \
--name chatglm2 \
-v /llm:/notebooks \
-e TZ='Asia/Shanghai' \
--shm-size 16G \
nvcr.io/nvidia/pytorch:21.08-py3
进入容器内:
docker exec -it chatglm2 env LANG=C.UTF-8 /bin/bash
3、下载代码
cd /notebooks/
git https://github.com/THUDM/ChatGLM2-6B.git
4、下载模型权重文件
cd ChatGLM2-6B/
git clone https://huggingface.co/THUDM/chatglm2-6b
5、按照依赖库
pip install -r requirements.txt
6、推理
推理速度对比
显存占用
推理代码
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
你好 本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/350345
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。