赞
踩
Github 代码
:https://github.com/THUDM/ChatGLM3
模型地址:
huggingface
:https://huggingface.co/THUDM/chatglm3-6b
modelscope
:https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary
智谱AI于27日论坛上推出了全自研的第三代基座大模型ChatGLM3及相关系列产品,这也是智谱AI继推出千亿基座的对话模型ChatGLM和ChatGLM2之后的又一次重大突破。
CUDA 11.7
Python 3.10
pytorch 2.0.1
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:
$ git clone https://github.com/THUDM/ChatGLM3
$ cd ChatGLM3
$ conda create -n py310_chat python=3.10 # 创建新环境
$ source activate py310_chat # 激活环境
$ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
!! 注:其中 transformers
库版本推荐为 4.30.2
,torch
推荐使用 2.0
及以上的版本,以获得最佳的推理性能。
从 Hugging Face Hub
下载模型实现和参数 到本地,后期使用 只需要 从本地下载即可。
$ git lfs install
$ git clone https://huggingface.co/THUDM/chatglm3-6b
!! 注:模型的实现仍然处在变动中。如果希望固定使用的模型实现以保证兼容性,可以在 from_pretrained
的调用中增加 revision="v1.0"
参数。v1.0
是当前最新的版本号,完整的版本列表参见 Change Log。
# 从modelscope上下载模型
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('THUDM/chatglm3-6b', cache_dir='./model', revision='master')
如果你网速很好,下载就很快,如果是kb/s,那么大文件下载会失败。
镜像:模型镜像网站地址
可以通过如下代码调用 ChatGLM 模型来生成对话:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
>>>
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:
你好声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/418333
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。