赞
踩
上一章我们部署了ollama大模型,Dify和ollama可以结合使用,以快速开发和部署AI应用。开发人员可以使用ollama在本地部署LLM,然后使用Dify进行应用开发和模型管理。
Dify 是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎以及灵活的 Agent 框架,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注于创新和业务需求。
通俗的讲dify就像一个壳是为了更方便的去使用大模型并可以将大模型本地化部署,打造个人知识库
如果你想了解更多关于 Dify 的信息,可以访问其官方网站:https://dify.ai/
docker -v
#由于网站在国外很有可能拉取不下来,可能要多尝试几次,实在不行就配置镜像加速器
Docker配置国内镜像加速-2_配置docker加速-CSDN博客
git clone https://github.com/langgenius/dify.git
- [root@dify ~]# cd dify/docker
- [root@dify docker]# docker compose up -d
#如果全是对钩代表镜像拉取成功
服务器IP地址
密码:123.com!
#注意:密码必须满足复杂度(数字字母+特殊符号不少于8为)
这样就进入了它的管理界面
所测选择‘模型供应商’------ ‘ollama添加模型’
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。