当前位置:   article > 正文

anythingllm无法识别ollama_anythingllm 没有ollama的模型

anythingllm 没有ollama的模型

linux下ollama base url和设置为以下三种都不行

http://127.0.0.1:11434

host.docker.internal:11434

localhost:11434

Chat Model Selection和Embedding Model Selection都无法识别读取

需要修改为

http:/172.17.0.1:11434即可正确识别

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号