赞
踩
ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
在主要评估LLM模型中文能力的 C-Eval 榜单中,截至6月25日 ChatGLM2 模型以 71.1 的分数位居 Rank 0 ,ChatGLM2-6B 模型以 51.7 的分数位居 Rank 6,是榜单上排名最高的开源模型。
CEval榜单,ChatGLM2暂时位居Rank 0,ChatGLM2-6B位居 Rank 6
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
git clone https://github.com/THUDM/ChatGLM2-6B
依赖:
conda create -n py310_chat python=3.10 # 创建新环境
source activate py310_chat # 激活环境
cd ChatGLM2-6B
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
从 Hugging Face Hub 下载模型实现和参数 到本地,后期使用 只需要 从本地下载即可。
git lfs install
git clone https://huggingface.co/THUDM/chatglm2-6b
注:模型的实现仍然处在变动中。
如果希望固定使用的模型实现以保证兼容性,可以在 from_pretrained 的调用中增加 revision=“v1.0” 参数。
v1.0 是当前最新的版本号,完整的版本列表参见 Change Log。
依赖
pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
可以通过如下代码调用 ChatGLM2-6B 模型来生成对话:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("/data/chat/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("/data/chat/chatglm2-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
# 你好声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/410830
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。