当前位置:   article > 正文

ChatOllama翻译

ChatOllama翻译

GitHub - sugarforever/chat-ollama: ChatOllama is an open source chatbot based on LLMs. It supports a wide range of language models, and knowledge base management.

翻译:

ChatOllama 是一个基于 LLMs(大型语言模型)的开源聊天机器人。它支持多种语言模型,包括:

- Ollama 服务模型
- OpenAI
- Azure OpenAI
- Anthropic

ChatOllama 支持多种类型的聊天:

- 与 LLMs 自由聊天
- 基于知识库与 LLMs 聊天

ChatOllama 功能列表:

- Ollama 模型管理
- 知识库管理
- 聊天
- 商业 LLMs API 密钥管理
- 加入我们的社区

无论您是 ChatOllama 的用户、贡献者,还是只是新接触 ChatOllama,我们都欢迎您通过点击邀请链接加入我们的 Discord 社区。

如果您是贡献者,技术讨论频道适合您,我们将在那里讨论技术问题。

如果您在使用 ChatOllama 时遇到任何问题,请报告给客户支持频道。我们会尽快帮助您解决。

快速开始
作为 ChatOllama 的用户,请浏览下面的文档,确保在开始使用 ChatOllama 之前,所有组件都已正常运行。

支持的向量数据库
ChatOllama 支持两种类型的向量数据库:Milvus 和 Chroma。

请参考 .env.example 文件了解如何配置您的向量数据库。

# 支持的值:chroma, milvus
VECTOR_STORE=chroma
CHROMADB_URL=http://localhost:8000
MILVUS_URL=http://localhost:19530
默认情况下 ChatOllama 使用 Chroma。如果您想使用 Milvus,请将 VECTOR_STORE 设置为 milvus 并指定相应的 URL。这在开发服务器和 Docker 容器中都有效。

与 Nuxt 3 开发服务器一起使用
如果您想运行最新的代码库并根据需要应用更改,您可以克隆这个仓库并按照下面的步骤操作。

安装并运行 Ollama 服务器

您需要一个正在运行的 Ollama 服务器。请按照 Ollama 的安装指南操作。默认情况下,它在 http://localhost:11434 上运行。

安装 Chroma

请参考 https://docs.trychroma.com/getting-started 了解 Chroma 的安装。

我们建议您在 Docker 容器中运行它:

#https://hub.docker.com/r/chromadb/chroma/tags 

docker pull chromadb/chroma
docker run -d -p 8000:8000 chromadb/chroma
现在,ChromaDB 正在 http://localhost:8000 上运行

ChatOllama 设置

现在,我们可以完成运行 ChatOllama 所需的设置。

3.1 将 .env.example 文件复制到 .env 文件:

cp .env.example .env
3.2 确保安装了依赖项:

# npm
npm install

# pnpm
pnpm install

# yarn
yarn install

# bun
bun install
3.3 运行迁移以使用 Prisma Migrate 创建您的数据库表

# npm
npm run prisma-migrate

# pnpm
pnpm prisma-migrate

#

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/722699
推荐阅读
相关标签
  

闽ICP备14008679号