赞
踩
部署本地大模型,结合Ollama、Open WebUI以及本地RAG(Retrieval-Augmented Generation)可以为用户提供一个强大的本地知识库和交互式对话系统。以下是详细的部署步骤和功能介绍:
ollama run
qwen2:7b等命令,你可以自动下载并运行相应的模型。为了屏蔽系统处理器架构,可以选择docker进行安装部署
- docker pull ollama/ollama
- docker run -d --restart=always -v /home/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
这将在后台运行一个名为 “ollama” 的容器,并将 /home/docker/ollama 目录挂载到容器内的 /root/.ollama 目录,同时将容器内的端口 11434 映射到宿主机的端口 11434。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问WebUI:安装完成后,通过在浏览器地址栏输入http://localhost:3000
来访问Open WebUI。首次登录需要注册账号,并选择模型(如llama2、qwen2)以开始对话。
#
号选择对应的文档进行总结分析。通过上述步骤,你可以成功部署一个本地的大模型系统,享受强大的计算能力和便捷的交互体验。
[1] https://ollama.com/library
[2] https://sspai.com/post/85193
[3] https://zhuanlan.zhihu.com/p/690501095
[4] https://zhuanlan.zhihu.com/p/684800288
[5] https://blog.csdn.net/spiderwower/article/details/138463635
[6] https://blog.csdn.net/2401_83946509/article/details/138476796
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。