赞
踩
https://hub.docker.com/r/ollama/ollama
docker run -d -v ~/Documents/work/softs/docker/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 进入容器
docker exec -it ollama bash
# 运行大模型
ollama run llama2
# 发送请求(会有很多输出,一直到结束)
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
可以选择其支持的模型列表GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.
GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)")
# host.docker.internal == 127.0.0.1 主要是mac下docker 不支持127.0.0.1
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://host.docker.in
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。