当前位置:   article > 正文

轻松搭建llama3Web 交互界面 - Ollama + Open WebUI_ollama3

ollama3

Ubuntu下安装:(官网:Download Ollama on Linux

curl -fsSL https://ollama.com/install.sh | sh

就运行起来ollama了,不放心可以用ollama serve查看一下

 ollama run llama3

就可以跑起来了,

 那么我们肯定还是希望有chat界面,

使用https://github.com/open-webui/open-webui

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

 

 出现下面这个界面就是open webui启动成功了:

默认注册的第一个用户是管理员

如果llama3出不来,那么把open webui停掉删掉,使用这个命令,第一句是停掉,第二句命令是删掉container:

docker stop open-webui

docker rm open-webui

ollama先执行,不要stop

重新执行这句命令,就ok了

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/548080
推荐阅读
相关标签
  

闽ICP备14008679号