当前位置:   article > 正文

使用ollama + webui 运行任意大模型_ollama+webui

ollama+webui

安装ollama 

https://hub.docker.com/r/ollama/ollama

docker run -d -v ~/Documents/work/softs/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

验证安装

  1. # 进入容器
  2. docker exec -it ollama bash
  3. # 运行大模型
  4. ollama run llama2
  5. # 发送请求(会有很多输出,一直到结束)
  6. curl http://localhost:11434/api/generate -d '{
  7. "model": "llama2",
  8. "prompt":"Why is the sky blue?"
  9. }'

可以选择其支持的模型列表GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.

安装webui

GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)

  1. # host.docker.internal == 127.0.0.1 主要是mac下docker 不支持127.0.0.1
  2. docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 -v ~/Documents/work/softs/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

验证安装

访问http://127.0.0.1:3000,开始对话

构建自己的知识库(anything llm)

GitHub - Mintplex-Labs/anything-llm: A multi-user ChatGPT for any LLMs and vector database. Unlimited documents, messages, and storage in one privacy-focused app. Now available as a desktop application with a built-in LLM!

安装

Download AnythingLLM for Desktop

选择模型模型 ollama 

ollama pull nomic-embed-text 支持长文本的效果比较好。

最终的配置

建立文档库

开始用自己的文档对话

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/445936
推荐阅读
相关标签
  

闽ICP备14008679号