赞
踩
原文:https://wangguo.site/Blog/2024/Q2/2024-06-14/
说明:安装使用环境是在Windows下
ollama pull 模型名称
下载模型ollama pull llama3
ollama run 模型名称
即可使用ollama run llama3
ollama serve
、或者直接点击ollama图标即可127.0.0.1:11434
,显示ollama id running
即为正常Open WebUI是一个可扩展、功能强大且用户友好的自主WebUI,旨在完全离线操作。它支持多种LLM运行器,包括Ollama和OpenAI,兼容API。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
localhost:3000
环境变量
。步骤:windows下直接搜索编辑系统环境变量-环境变量-在系统变量中新建-变量名:OLLAMA_HOST;变量值:0.0.0.0
192.168.1.9:11434
步骤:点击右上角的图标-设置-管理员设置-外部连接-在ollama api中填写本地ip+端口号,如
192.168.1.9:11434
验证:点击后面的刷新按钮,弹出已验证服务器连接
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
./webui.bat
本地IP+端口号7860
web.bat
中添加启动参数(13行左右),以便sd提供api服务set COMMANDLINE_ARGS=--xformers --api --listen --share
在管理员面板- 设置-图像里面按照下图进行配置,所有的参数都可以根据自己的进行修改
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。