赞
踩
1) 第一步:部署Dify.
Dify: Do it for you. 词源于Define+Modify,是一个LLMOps平台,使用者可以不需要关注基础设施的底层原理就能落地AI应用,并持续运营的一个平台.
其具体的应用在:Dify应用的介绍
2)本地部署xinference
Xorbits inference 是一个强大且通用的分布式推理框架,是为大型语言模型、语音识别模型和多模态模型提供服务,甚至可以在笔记本电脑上使用。它支持多种与GGML兼容的模型,如 chatglm, baichuan, whisper, vicuna, orca 等。 Dify 支持以本地部署的方式接入 Xinference 部署的大型语言模型推理和 embedding 能力。
对其进行本地部署:pip3 install "xinference[all]"
然后就会下载xinference的python库,安装一系列依赖库。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。