当前位置:   article > 正文

anythingllm无法识别ollama_anythingllm 没有ollama的模型

anythingllm 没有ollama的模型

linux下ollama base url和设置为以下三种都不行

http://127.0.0.1:11434

host.docker.internal:11434

localhost:11434

Chat Model Selection和Embedding Model Selection都无法识别读取

需要修改为

http:/172.17.0.1:11434即可正确识别

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/891606
推荐阅读
相关标签
  

闽ICP备14008679号