赞
踩
Ollama 是一个开源框架,旨在为用户提供在本地运行大型语言模型的能力。
Ollama 支持多种主流模型的下载,也允许用户通过自定义导入的方式来使用自训练的模型。
Ollama 的优势在于其强大的功能和便捷的 API,能够为用户提供灵活的语言模型使用体验。
官网:https://ollama.com
支持的开源大模型:https://ollama.com/library
Open WebUI是一个可扩展的、功能丰富的、用户友好的WebUI。
支持各种LLM运行器,包括Ollama和与OpenAI兼容的APIs。
官网:https://github.com/open-webui/open-webui?tab=readme-ov-file
docker run -d --restart=always -p 3001:11434 -v /home/ollama:/root/.ollama --name ai-ollama docker.nju.edu.cn/ollama/ollama:0.1.38
docker run -d --restart=always -p 3002:8080 -e OLLAMA_API_BASE_URL=http://127.0.0.1:3001/api \
-e HF_ENDPOINT=https://hf-mirror.com -v /home/open-webui-ollama:/app/backend/data \
--name open-webui-ollama ghcr.nju.edu.cn/open-webui/open-webui:git-7a556b2-ollama
open-webui网址
http://ip:3000
注册
修改语言
右上角 Settings
例如:wangshenzhi/llama3-8b-chinese-chat-ollama-q8
CPU:E5-2683 v4, 回答用时:110秒,CPU占用:49%
sudo apt-get install -y cuda-drivers-535
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb
sudo dpkg -i cuda-keyring_1.0-1_all.deb
sudo apt-get update
sudo apt-get -y install nvidia-cuda-toolkit
sudo apt install -y nvidia-container-runtime
"default-runtime": "nvidia",
"runtimes": {
"nvidia": {
"path": "nvidia-container-runtime",
"runtimeArgs": []
}
}
systemctl daemon-reload && systemctl restart docker
docker run --rm --gpus all nvidia/cuda:11.0.3-base nvidia-smi
docker run -d --restart=always -p 3001:11434 -v /home/ollama:/root/.ollama --gpus all --name ai-ollama docker.nju.edu.cn/ollama/ollama:0.1.38
docker run -d --restart=always -p 3002:8080 -e OLLAMA_API_BASE_URL=http://127.0.0.1:3001/api \
-e HF_ENDPOINT=https://hf-mirror.com -v /home/open-webui-ollama:/app/backend/data \
--gpus all --name ai-open-webui ghcr.nju.edu.cn/open-webui/open-webui:git-7a556b2-ollama
注册使用流程同上。
GPU:NVIDIA 2080 Ti 22 GB, 回答用时:17秒,GPU占用:80%,显存使用:8.3GB
docker exec -it ai-ollama ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8:latest
docker exec -it ai-ollama ollama run qwen:32b
http://ip:3001/api/chat
{
"model": "qwen:32b",
"messages": [
{
"role": "user",
"content": "简要回答AI的学习路径"
}
]
}
http://ip:3001/api/chat
{
"model": "qwen:32b",
"messages": [
{
"role": "user",
"content": "简要回答AI的学习路径"
}
],
"stream": false
}
http://ip:3001/api/chat
{
"model": "qwen:32b",
"messages": [
{
"role": "user",
"content": "简要回答AI的学习路径"
},
{
"role": "assistant",
"content": "再概括一些"
}
],
"stream": false
}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。