赞
踩
Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。
https://www.bilibili.com/video/BV11x421C772/
【ollama】(6):在本地使用docker-compose启动ollama镜像,对接chatgpt-web服务,配置成功,可以进行web聊天了,配置在简介里
使用ollama + chatgpt-web 实现本地大模型执行。
git clone https://gitee.com/fly-llm/ollama-chatgpt-web.git
cd ollama-chatgpt-web
docker-compose up -d
然后访问:http://localhost:3002/ 即可
主要的docker-compose文件:
version: '3.5' services: ##################### 使用ollama部署大模型 ##################### # OLLAMA_HOST The host:port to bind to (default "127.0.0.1:11434") # OLLAMA_ORIGINS A comma separated list of allowed origins. # OLLAMA_MODELS The path to the models directory (default is "~/.ollama/models") ollama: restart: always container_name: ollama image: ollama/ollama ports: - 8000:8000 environment: - OLLAMA_HOST=0.0.0.0:8000 - OLLAMA_MODELS=/data/models volumes: - ./models/:/data/models - ./run_ollama.sh:/run_ollama.sh # 命令启动 serve entrypoint: /run_ollama.sh ## https://github.com/Chanzhaoyu/chatgpt-web app: image: chenzhaoyu94/chatgpt-web container_name: app ports: - 3002:3002 environment: # choose one OPENAI_API_KEY: sk-xxx # choose one OPENAI_ACCESS_TOKEN: xxx # API interface address, optional, available when OPENAI_API_KEY is set OPENAI_API_BASE_URL: http://ollama:8000/v1 # API model, optional, available when OPENAI_API_KEY is set, https://platform.openai.com/docs/models # gpt-4, gpt-4-turbo-preview, gpt-4-0125-preview, gpt-4-1106-preview, gpt-4-0314, gpt-4-0613, gpt-4-32k, gpt-4-32k-0314, gpt-4-32k-0613, gpt-3.5-turbo-16k, gpt-3.5-turbo-16k-0613, gpt-3.5-turbo, gpt-3.5-turbo-0301, gpt-3.5-turbo-0613, text-davinci-003, text-davinci-002, code-davinci-002 OPENAI_API_MODEL: qwen:0.5b # reverse proxy, optional AUTH_SECRET_KEY: # maximum number of requests per hour, optional, unlimited by default MAX_REQUEST_PER_HOUR: 0 # timeout, unit milliseconds, optional TIMEOUT_MS: 60000 networks: default: name: ollama-network
docker exec -it ollama bash
ollama run qwen:0.5b
也可以下载其他版本模型:
https://ollama.com/library/qwen
CPU 推荐使用 7b及以下版本。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。