赞
踩
翻译:
ChatOllama 是一个基于 LLMs(大型语言模型)的开源聊天机器人。它支持多种语言模型,包括:
- Ollama 服务模型
- OpenAI
- Azure OpenAI
- Anthropic
ChatOllama 支持多种类型的聊天:
- 与 LLMs 自由聊天
- 基于知识库与 LLMs 聊天
ChatOllama 功能列表:
- Ollama 模型管理
- 知识库管理
- 聊天
- 商业 LLMs API 密钥管理
- 加入我们的社区
无论您是 ChatOllama 的用户、贡献者,还是只是新接触 ChatOllama,我们都欢迎您通过点击邀请链接加入我们的 Discord 社区。
如果您是贡献者,技术讨论频道适合您,我们将在那里讨论技术问题。
如果您在使用 ChatOllama 时遇到任何问题,请报告给客户支持频道。我们会尽快帮助您解决。
快速开始
作为 ChatOllama 的用户,请浏览下面的文档,确保在开始使用 ChatOllama 之前,所有组件都已正常运行。
支持的向量数据库
ChatOllama 支持两种类型的向量数据库:Milvus 和 Chroma。
请参考 .env.example 文件了解如何配置您的向量数据库。
# 支持的值:chroma, milvus
VECTOR_STORE=chroma
CHROMADB_URL=http://localhost:8000
MILVUS_URL=http://localhost:19530
默认情况下 ChatOllama 使用 Chroma。如果您想使用 Milvus,请将 VECTOR_STORE 设置为 milvus 并指定相应的 URL。这在开发服务器和 Docker 容器中都有效。
与 Nuxt 3 开发服务器一起使用
如果您想运行最新的代码库并根据需要应用更改,您可以克隆这个仓库并按照下面的步骤操作。
安装并运行 Ollama 服务器
您需要一个正在运行的 Ollama 服务器。请按照 Ollama 的安装指南操作。默认情况下,它在 http://localhost:11434 上运行。
安装 Chroma
请参考 https://docs.trychroma.com/getting-started 了解 Chroma 的安装。
我们建议您在 Docker 容器中运行它:
#https://hub.docker.com/r/chromadb/chroma/tags
docker pull chromadb/chroma
docker run -d -p 8000:8000 chromadb/chroma
现在,ChromaDB 正在 http://localhost:8000 上运行
ChatOllama 设置
现在,我们可以完成运行 ChatOllama 所需的设置。
3.1 将 .env.example 文件复制到 .env 文件:
cp .env.example .env
3.2 确保安装了依赖项:
# npm
npm install
# pnpm
pnpm install
# yarn
yarn install
# bun
bun install
3.3 运行迁移以使用 Prisma Migrate 创建您的数据库表
# npm
npm run prisma-migrate
# pnpm
pnpm prisma-migrate
#
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。