赞
踩
Ollama WebUI 已经更名为 Open WebUI. Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。
Ollama WebUI 是一个革命性的 LLM 本地部署框架,具有类似 ChatGPT 的 Web 界面。让我们为您的 Ollama 部署的 LLM 提供类似 ChatGPT Web UI 的界面,只需按照以下 5 个步骤开始行动吧。
除了webui,还有其他优秀的ui如下:
五个优秀的免费 Ollama WebUI 客户端推荐 · LobeHub
在 Windows 计算机上深入研究 Ollama 和 Ollama WebUI 是进入人工智能和机器学习世界的激动人心的旅程。本详细指南将引导您完成每个步骤并提供示例以确保顺利启动。
Ollama下载地址:https://ollama.com/download
可以从以下网站查看安装方法,我是选择linux安装版本。
运行以下 docker 命令以在本地计算机上部署 llama-webui docker 容器。如果您的计算机上有 Ollama,请使用以下命令:
docker run -d -p 1158
第 3 步 - 登录打开 WebUI
安装完成后,您可以通过http://localhost:1158访问Open WebUI。第一次您需要点击“注册”进行注册。
:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要连接到另一台服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为服务器的 URL。因此,如果 Ollama 在不同的服务器上,请使用以下命令:
- docker run -d -p 1158:8080 \
- -e OLLAMA_BASE_URL=http://192.168.0.1:11434 \
- -v open-webui:/app/backend/data \
- --name open-webui \
- --restart always
- ghcr.io/open-webui/open-webui:main
docker run
: 启动一个新的 Docker 容器。-d
: 以守护进程模式运行容器,容器将在后台运行。-p 3000:8080
: 将本地机器的端口 3000 映射到容器内的端口 8080。这意味着你可以通过访问 http://localhost:3000
来访问运行在容器内的服务。--add-host=host.docker.internal:host-gateway
: 将主机名 host.docker.internal
映射到 Docker 网关。这对于在容器内访问主机服务很有用。-v open-webui:/app/backend/data
: 将本地的 open-webui
卷映射到容器内的 /app/backend/data
目录。这用于持久化数据,确保即使容器停止或重新启动,数据也不会丢失。--name open-webui
: 为容器指定一个名称 open-webui
,以便于管理和识别。--restart always
: 设置容器的重启策略为 always
,这意味着容器如果停止(例如由于崩溃或系统重启),Docker 会自动重启它。ghcr.io/open-webui/open-webui:main
: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui
镜像,并指定使用 main
标签的版本。注意:使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 -v open-webui:/app/backend/data。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。
安装完成后,您可以通过http://localhost:3000访问Open WebUI。第一次您需要点击“注册”进行注册。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。