当前位置:   article > 正文

docker容器搭建chatglm3-6b的openai api接口_chatglm3-6b docker

chatglm3-6b docker

服务器环境:

显卡驱动:Driver Version: 530.30.02

CUDA版本:CUDA Version: 12.1

显卡:NVIDIA GeForce RTX 3090共4张

注意:最好把显卡驱动升级到530,CUDA版本之前使用11.7有问题。

一、创建目录结构

创建文件夹llms_chatglm3

llms_chatglm3下创建文件夹glm3

ChatGLM3/openai_api_demo at main · THUDM/ChatGLM3 (github.com)

下的代码放在glm3文件夹中

同时将THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型 (github.com)

下的 requirements.txt也放在glm3目录下。

二、下载chatglm3-6b模型

  1. pip install -U huggingface_hub
  2. export HF_ENDPOINT=https://hf-mirror.com
  3. huggingface-cli download --resume-download THUDM/chatglm3-6b --local-dir chatglm3-6b

三、下载bge-large-zh-v1.5模型

和第二步同理。

四、创建docker-compose

llms_chatglm3目录下创建docker-compose.yml,此时的目录结构如下

docker-compose.yml内容如下:

  1. version: "3.6"
  2. services:
  3. glm3_api:
  4. image: python:3.10.13-slim
  5. restart: unless-stopped
  6. working_dir: /glm3
  7. container_name: glm3_api
  8. deploy:
  9. resources:
  10. reservations:
  11. devices:
  12. - driver: nvidia
  13. count: 2
  14. capabilities: [gpu]
  15. environment:
  16. - MODEL_PATH=/models/chatglm3-6b
  17. - EMBEDDING_PATH=/models/bge-large-zh-v1.5
  18. - TZ=Asia/Shanghai
  19. - PYTHONDONTWRITEBYTECODE=1
  20. - PYTHONUNBUFFERED=1
  21. - DOCKER=True
  22. ports:
  23. - 8002:8000
  24. volumes:
  25. - ./glm3:/glm3
  26. - ./chatglm3-6b:/models/chatglm3-6b
  27. - ./bge-large-zh-v1.5:/models/bge-large-zh-v1.5
  28. command:
  29. - sh
  30. - -c
  31. - |
  32. python -m pip install -i https://mirrors.aliyun.com/pypi/simple --upgrade pip
  33. pip install -r /glm3/requirements.txt -i https://mirrors.aliyun.com/pypi/simple
  34. python api_server.py
  35. networks:
  36. general:
  37. external: true

 五、启动测试容器

docker compose up

启动后,执行:

docker exec -i glm3_api python openai_api_request.py

如果出现一段故事,那么说明部署成功。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/1001907
推荐阅读
相关标签
  

闽ICP备14008679号