赞
踩
git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B
# 其中 transformers 库版本推荐为 4.30.2,torch 推荐使用 2.0 及以上的版本,以获得最佳的推理性能
pip install -r requirements.txt
# 这里我将下载的模型文件放到了本地的 chatglm-6b 目录下
git clone https://huggingface.co/THUDM/chatglm2-6b
# 因为前面改了模型默认下载地址,所以这里需要改下路径参数
# 修改 open_api.py 文件
if __name__ == "__main__":
tokenizer = AutoTokenizer.from_pretrained("/home/XXX/glm_model/chatglm2-6b", trust_remote_code=True,device='cuda:2')
model = AutoModel.from_pretrained("/home/XXX/glm_model/chatglm2-6b", trust_remote_code=True,device='cuda:5')
# 多显卡支持,使用下面两行代替上面一行,将num_gpus改为你实际的显卡数量
# from utils import load_model_on_gpus
# model = load_model_on_gpus("THUDM/chatglm2-6b", num_gpus=2)
uvicorn.run(app, host='0.0.0.0', port=8008, workers=8)
python open_api.py
#pytorch
等基础环境的安装这里不作过多说明
Pip install langchain
Pip install milvus
#
这里使用
text2vec-base-chines HuggingFace
魔搭社区等都能下载
https://modelscope.cn/models/thomas/text2vec-base-chinese/files
这里不作详细说明,开发者需要自行学习Milvus向量数据库的使用。笔者是从ES里加载了部分二级市场的舆情数据到Milvus。
Milvus新闻库中如果有的新闻内容大模型一般都能回复正确。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。