当前位置:   article > 正文

Open-Webui和RAGFlow无法加载ollama模型_lora sd1.5模型 sdwebui中不显示

lora sd1.5模型 sdwebui中不显示

 

  1. sudo vim /etc/systemd/system/ollama.service
  2. #添加环境变量
  3. Environment="OLLAMA_HOST=0.0.0.0:11434"
  4. Environment="OLLAMA_ORIGINS=*"
  1. [Unit]
  2. Description=Ollama Service
  3. After=network-online.target
  4. [Service]
  5. ExecStart=/usr/local/bin/ollama serve
  6. User=ollama
  7. Group=ollama
  8. Restart=always
  9. RestartSec=3
  10. Environment="PATH=/root/bin:/home/zxw/anaconda3/bin:/home/zxw/anaconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda/bin"
  11. Environment="OLLAMA_HOST=0.0.0.0:11434"
  12. Environment="OLLAMA_ORIGINS=*"
  13. [Install]
  14. WantedBy=default.target
  1. #为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
  2. sudo systemctl daemon-reload
  3. #最后,重启服务以应用更改:
  4. sudo systemctl restart ollama
  1. 注意配置防火墙规则:
  2. 1.当然您可以直接关了他。
  3. 2.如果服务器有防火墙(如iptables或ufw),确保开放了Ollama使用的端口(默认为11434)。您可以使用以下命令开放端口:
  4. sudo iptables -I INPUT -p tcp --dport 11434 -j ACCEPT
  5. 或者,如果您使用的是ufw:
  6. sudo ufw allow 11434/tcp
  7. 原文链接:https://blog.csdn.net/liujianming90/article/details/137452942

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/874227
推荐阅读
相关标签
  

闽ICP备14008679号