当前位置:   article > 正文

[AI]Linux部署Ollama+Open-WebUi_linux ollama open-webui

linux ollama open-webui

1.部署Ollama

curl -fsSL https://ollama.com/install.sh | sh
  • 1
  • 修改允许访问ip
# 在service下面加入一行配置
vim /etc/systemd/system/ollama.service
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
  • 1
  • 2
  • 3
  • 4
  • 重启ollama
systemctl daemon-reload
systemctl restart ollama
  • 1
  • 2
  • 安装Llama3 8B模型
ollama run llama3:8b
  • 1

2.安装Docker

  • 更换国内源
yum install -y yum-utils
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install -y docker-ce
  • 1
  • 2
  • 3
  • 启动Docker
systemctl start docker
systemctl enable docker
  • 1
  • 2

3.部署Open-WebUi

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 1
  • 访问web界面 ip:port

输入IP:Port访问网页后先进行注册即可

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/895327
推荐阅读
相关标签
  

闽ICP备14008679号