赞
踩
https://www.bilibili.com/video/BV1N94y1n7UF/
【大模型知识库】(1):设计开源项目,docker部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh模型
项目名称 llm-knowledge-system
大模型知识库系统
项目代码在,逐步开发设计中。
https://gitee.com/fly-llm/llm-knowledge-system
开发语言使用golang进行开发。
框架使用goframe。主要是考虑到高并发,和快速部署。
官方:https://goframe.org/display/gf
代码:
https://gitee.com/johng/gf
GoFrame是一款模块化、高性能、企业级的Go基础开发框架。GoFrame是一款通用性的基础开发框架,是Golang标准库的一个增强扩展级,包含通用核心的基础开发组件,优点是实战化、模块化、文档全面、模块丰富、易用性高、通用性强、面向团队。GoFrame即可用于开发完整的工程化项目,由于框架基础采用模块化解耦设计,因此也可以作为工具库使用。
如果您想使用Golang开发一个业务型项目,无论是小型还是中大型项目,GoFrame是您的不二之选。如果您想开发一个Golang组件库,GoFrame提供开箱即用、丰富强大的基础组件库也能助您的工作事半功倍。如果您是团队Leader,GoFrame丰富的资料文档、详尽的代码注释、活跃的社区成员将会极大降低您的指导成本,支持团队快速接入、语言转型与能力提升。
MeiliSearch
基于 Rust 语言开发的开源搜索引擎
一款开源向量数据库,赋能 AI 应用和向量相似度搜索。
Field:类似表字段,可以是结构化数据,当然还可以是向量;
Entity:一组Field,类似表的一条数据;
Collection:一组Entity,类似于表;
Milvus不单单是向量检索工具,而是向量数据库,能对不同业务的向量隔离,分开存储;
提供可视化管理工具;
支持带过滤条件的向量混合检索。
https://zhuanlan.zhihu.com/p/405186060#%E5%89%8D%E8%A8%80%E6%8F%90%E7%A4%BA
之前的项目已经调研清楚了:
【ChatGLM3】(5):使用 fastchat 部署ChatGLM3服务,启动8bit的worker,可以运行openai_api服务和web界面方便进行测试。还支持embeddings 接口!
https://blog.csdn.net/freewebsys/article/details/134484318?spm=1001.2014.3001.5501
fastchat其实可以分开部署,分为 CPU 版本和 GPU 版本。这样在生产环境更灵活。
其中workder可以支持多机器部署:
# 构建 cpu 版本
FROM python:slim-bullseye
# 设置python3的镜像源
RUN mkdir /root/.pip/ && echo "[global]" > /root/.pip/pip.conf && \
echo "index-url = https://mirrors.aliyun.com/pypi/simple/" >> /root/.pip/pip.conf && \
echo "[install]" >> /root/.pip/pip.conf && \
echo "trusted-host=mirrors.aliyun.com" >> /root/.pip/pip.conf
# 先安装
RUN pip3 install "fschat[controller]"
GPU的镜像主要跑模型:
## 参考文章:https://blog.csdn.net/freewebsys/article/details/134567530
FROM pytorch/pytorch:2.1.0-cuda12.1-cudnn8-devel
# 设置debian的镜像源 && # 设置python3的镜像源
RUN echo "deb https://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse" > /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-updates main restricted universe multiverse" >> /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-backports main restricted universe multiverse" >> /etc/apt/sources.list && \
echo "deb https://mirrors.aliyun.com/ubuntu/ focal-security main restricted universe multiverse" >> /etc/apt/sources.list && \
pip3 config set global.index-url https://mirrors.aliyun.com/pypi/simple && \
pip3 config set install.trusted-host mirrors.aliyun.com
# 先安装 xformers 再安装 fastchat, 就不会安装 pytroch 了,会使用 xformers 依赖的版本了。
# apt update && apt install -y net-tools vim
RUN pip3 install transformers accelerate sentencepiece \
&& pip3 install "fschat[model_worker,webui]"
整个的docker-compose文件:
包括:
mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh
version: '3.5'
services:
################## mysql 数据库 5.7 版本 ##################
mysql:
restart: always
image: mysql:5.7
container_name: mysql
ports:
- "3306:3306"
volumes:
- "./data/mysql:/var/lib/mysql"
# - "./conf/mysql/mysql.cnf:/etc/mysql/conf.d/mysql.cnf"
environment:
MYSQL_ROOT_PASSWORD: mysqladmin
MYSQL_DATABASE: llm_knowledge
TZ: Asia/Shanghai
command: [
'--character-set-server=utf8mb4',
'--collation-server=utf8mb4_general_ci',
'--max_connections=3000'
]
################## meilisearch 1.5 搜索服务 ##################
meilisearch:
restart: always
image: getmeili/meilisearch:v1.5
container_name: meilisearch
ports:
- "7700:7700"
volumes:
- "./data/meilisearch:/meili_data"
environment:
MEILI_ENV: production
MEILI_MASTER_KEY: admin_1234567890
##################### 向量数据库配置 #####################
etcd:
restart: always
container_name: milvus-etcd
image: quay.io/coreos/etcd:v3.5.5
environment:
- ETCD_AUTO_COMPACTION_MODE=revision
- ETCD_AUTO_COMPACTION_RETENTION=1000
- ETCD_QUOTA_BACKEND_BYTES=4294967296
- ETCD_SNAPSHOT_COUNT=50000
volumes:
- ./data/milvus/etcd:/etcd
command: etcd -advertise-client-urls=http://127.0.0.1:2379 -listen-client-urls http://0.0.0.0:2379 --data-dir /etcd
healthcheck:
test: ["CMD", "etcdctl", "endpoint", "health"]
interval: 30s
timeout: 20s
retries: 3
minio:
restart: always
container_name: milvus-minio
image: minio/minio:RELEASE.2023-03-20T20-16-18Z
environment:
MINIO_ACCESS_KEY: minioadmin
MINIO_SECRET_KEY: minioadmin
ports:
- "9001:9001"
- "9000:9000"
volumes:
- ./data/milvus/minio:/minio_data
command: minio server /minio_data --console-address ":9001"
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9000/minio/health/live"]
interval: 30s
timeout: 20s
retries: 3
milvus-standalone:
restart: always
container_name: milvus-standalone
image: milvusdb/milvus:v2.3.3
command: ["milvus", "run", "standalone"]
security_opt:
- seccomp:unconfined
environment:
ETCD_ENDPOINTS: etcd:2379
MINIO_ADDRESS: minio:9000
volumes:
- ./data/milvus/milvus:/var/lib/milvus
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9091/healthz"]
interval: 30s
start_period: 90s
timeout: 20s
retries: 3
ports:
- "19530:19530"
- "9091:9091"
depends_on:
- "etcd"
- "minio"
##################### 使用fastchat部署大模型 #####################
fastchat-controller:
restart: always
container_name: fastchat-controller
image: fastchat-cpu:v1.0
build:
context: .
dockerfile: docker/fastchat/DockerfileCpu
# 获取当前ip地址
command: python3 -m fastchat.serve.controller --host 0.0.0.0 --port 21001
fastchat-api:
restart: always
container_name: fastchat-api
image: fastchat-cpu:v1.0
build:
context: .
dockerfile: docker/fastchat/DockerfileCpu
# 获取当前ip地址 执行模型。
ports:
- "8000:8000"
command:
bash -c "python3 -m fastchat.serve.openai_api_server --controller-address http://fastchat-controller:21001 \
--host 0.0.0.0 --port 8000 "
depends_on:
- "fastchat-controller"
fastchat-worker-chatglm3:
restart: always
container_name: fastchat-worker-chatglm3
image: fastchat-gpu:v1.0
volumes:
- ./models/chatglm3-6b:/data/models/chatglm3-6b
build:
context: .
dockerfile: docker/fastchat/DockerfileGpu
# 是以 GPU 资源。
deploy:
resources:
reservations:
devices:
- driver: "nvidia"
count: "all"
capabilities: ["gpu"]
# 获取当前ip地址 执行模型。
command:
bash -c "python3 -m fastchat.serve.model_worker --load-8bit --model-names chatglm3-6b \
--model-path /data/models/chatglm3-6b --controller-address http://fastchat-controller:21001 \
--worker-address http://fastchat-worker-chatglm3:8001 --host 0.0.0.0 --port 8001 "
depends_on:
- "fastchat-controller"
fastchat-worker-bge-large-zh:
restart: always
container_name: fastchat-worker-bge-large-zh
image: fastchat-gpu:v1.0
volumes:
- ./models/bge-large-zh:/data/models/bge-large-zh
build:
context: .
dockerfile: docker/fastchat/DockerfileGpu
# 是以 GPU 资源。
deploy:
resources:
reservations:
devices:
- driver: "nvidia"
count: "all"
capabilities: ["gpu"]
# 获取当前ip地址 执行模型。
command:
bash -c "python3 -m fastchat.serve.model_worker --model-names bge-large-zh \
--model-path /data/models/bge-large-zh --controller-address http://fastchat-controller:21001 \
--worker-address http://fastchat-worker-bge-large-zh:8001 --host 0.0.0.0 --port 8001 "
depends_on:
- "fastchat-controller"
networks:
default:
name: knowledge-network
启动成之后,测试接口:
curl http://localhost:8000/v1/embeddings \
-H "Content-Type: application/json" \
-d '{
"input": "Your text string goes here",
"model": "bge-large-zh"
}'
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
"model": "chatglm3-6b",
"messages": [{"role": "user", "content": "你好"}],
"temperature": 0.7
}'
整个的docker-compose文件:
项目 | 介绍 | 端口 |
---|---|---|
mysql | 数据库 | 3306 |
meilisearch | 搜索库 | 7700 |
milvus | 向量数据库 | 19530 |
fastchat | 模型框架,部署chatglm3,BGE-zh | 8000 |
使用goframe可以快速创建项目。
然后就可以进行开发了。
在项目的docker-compose 目录下可以直接将各种中间件服务都启动。
配置都在各自中间件的目录下面。
中间件都可以启动成功了。主要是fastchat复杂点。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。