赞
踩
首先声明,基础较好的同学可以直接去看ChatGLM的官方,里面写得也很详细:GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型
在上述的ChatGLM-6B官方项目里,提供了requirements.txt文件。将项目克隆到本地,直接命令行:pip install -r requirements.txt 即可,这样环境就安装好了。
我的pytorch包是自己手动安装的,没有通过它的文档自动安装。
建议用conda新建一个虚拟环境来独立管理,防止包的冲突,这是一个好的习惯。
如果你不打算本地跑模型,那本地环境不搭建也是可以的,直接跳过这步!
可以通过如下代码,直接调用 ChatGLM-6B 模型:
- from transformers import AutoTokenizer, AutoModel
- tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
- model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
- model = model.eval()
- response, history = model.chat(tokenizer, "你好", history=[])
- print(response)
- #你好声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/189611推荐阅读
相关标签
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。