赞
踩
往期文章回顾:
【LLM】二、python调用本地的ollama部署的大模型
目录
前面的文章,我们已经学习了如何在本地搭建并调用自己大模型,今天我们的主要内容是通过open-webui+Ollama来搭建一个聊天机器人的前端页面。
官网地址:open- webUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容 API。
这里直接参考官方文档,安装即可。这里我推荐使用下面这条命令:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
其中,涉及到的参数解释如下:
http://localhost:3000
来访问运行在容器内的服务。如果你的Ollama监听的端口是其他的,比如1001,那就改为-p 1001:8000即可,以此类推open-webui
卷映射到容器内的 /app/backend/data
目录。这用于持久化数据,确保即使容器停止或重新启动,数据也不会丢失。注意,open-webui不是固定的,你可以设置为任何存在的目录open-webui,可通过docker ps -a 来查看所有的容器状况
--restart
: 设置容器的重启策略,若为 always
,这意味着容器如果停止(例如由于崩溃或系统重启),Docker 会自动重启它。如果你不想用docker的方式安装,那就自己用源码去编译安装,参考链接为源码安装
在通用里选择语言为中文然后点击保存即可汉化。
这里我用的是Ollama服务,对应的URL即为我们docker 启动命令里的-e OLLAMA_BASE_URL=这个参数,如果启动命令里没指定也可以在这里加入。
点击红框中的按钮即可选择我们本地已有的模型,选择一个然后即可开始对话,同时,聊天机器人窗口也会在左下方保存,如上图中的qwen2_7b即为我自己的聊天机器人窗口。
1、第一次启动容器之后,在浏览器输入http:localhost:3000,发现进入失败,容器也直接崩溃重启,通过打印docker 日志(docker logs 容器ID),爆出如下错误:
解决办法:
docker启动时,命令改为如下:
docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
即增加一条指令:-e HF_ENDPOINT=https://hf-mirror.com
2、当在设置中添加Ollama的URL时没有生效
在如下设置里添加Ollama的URL后,点击保存发现也没有生效
解决办法:
用以下命令重新启动容器
docker restart 容器ID(通过docker ps -a查询容器ID)
以上就是本篇的全部内容,如有问题,欢迎评论区交流,或+企鹅群:995760755交流,如觉得有用,直接三连带回家。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。