赞
踩
Comfyui采用ComfyUI Ollama节点接入llava模型,具体设置此处不赘述,请参考文末的参考链接。
现象
ollama run llava,运行后采用ollama的节点出现如下:
HTTP Request: POST http://127.0.0.1:11434/api/generate "HTTP/1.1 502 Bad Gateway"
采用浏览器访问http://127.0.0.1:11434正常出现:“Ollama is running”
定位
开始被502误导认为是gateway的问题,排查了相关设置,均未发现有异常设置。求助度娘相关信息较少。
最后发现一篇博文提供参考,有用,现整理解决步骤如下:
解决:
1、开放ollama 的局域网访问,设置OLLAMA_HOST,在命令行执行以下命令:
set OLLAMA_HOST=0.0.0.0
2、停止ollama服务
sudo systemctl stop ollama
3、在命令行执行ollama serve
ollama serve
执行时间很久很久,原因未知
4、启动ollama服务
sudo systemctl start ollama
节点正常使用,特记录于此,以备遗忘
附上comfyui使用配置llama3参考链接:
太强了5分钟教会你把llama3装进comfyui内_哔哩哔哩_bilibili
问题参考链接:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。