赞
踩
ChatGLM github地址:https://github.com/THUDM/ChatGLM-6B
在此文件夹下cmd,创建一个专门独立的虚拟环境(部署要求较高,需要运存6G,python建议3.10及以上,transformers 库版本推荐为 4.30.2,torch 推荐使用 2.0 及以上的版本)
从文本读取安装环境依赖,假设环境名为
然后下载模型,可以通过transform,通过python运行下述代码
或者通过网站直接下载
ChatGLM huggingface地址:https://huggingface.co/THUDM/chatglm-6b
(全下就行)
把文件放到一个指定位置就行
运行下述代码测试即可quantize(4)是量化运行小精度,占用内存更小,改为8也可以
如果是手动下载需要改一下路径,依你存模型的路径而定,如下图
包括回应和历史对话,可以提前写几条history来给模型添加前置条件,让模型进行角色扮演。History的编写形式:
测试成功即完成部署。
获取模型的api,进入环境输入dir查看到api.py。
然后运行python api.py,加载模型并开放一个api接口
写下述代码运行,发送post请求,将url改为本地端口,运行代码进行测试,question:后面输入提问,
测试如下
然后进行在langchain中接入大模型,先在下载的chatglm里面找到api.py,修改路径地址path为后下载huggingface的地址,并按需修改量化模式,具体如下
然后下载langchain,(虚拟环境中直接pip,指令如下)
进行以下代码,在langchain中接入模型
实现:
问题:
解答:
关于chatglm和 Hugging Face Hub的分别
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。