当前位置:   article > 正文

【LLM】-05-部署Langchain-Chat-0.2.x版本_langchain-chatchat liunx本地部署,硬件要求

langchain-chatchat liunx本地部署,硬件要求

目录

1、软硬件要求

1.1、软件要求

1.2、硬件要求

1.3、个人配置参考

2、创建cuda环境

3、下载源码及模型

4、配置文件修改

5、初始化知识库

 5.1、训练自己的知识库

6、启动

7、API接口调用

7.1、使用openai


参考官方wiki,本文以Ubuntu20.04_x64,RTX4090,chatglm3-6b 模型为基础

1、软硬件要求

1.1、软件要求

  • Linux Ubuntu 22.04.5 kernel version 6.7

开发者在以下环境下进行代码调试,在该环境下能够避免最多环境问题。

  • Python 版本 == 3.11.7
  • CUDA 版本: == 12.1

1.2、硬件要求

在GPU运行本地模型的 FP16 版本

  • ChatGLM3-6B & LLaMA-7B-Chat 等 7B模型
    • 最低显存要求: 14GB
    • 推荐显卡: RTX 4080
  • Qwen-14B-Chat 等 14B模型
    • 最低显存要求: 30GB
    • 推荐显卡: V100
  • Yi-34B-Chat 等 34B模型
    • 最低显存要求: 69GB
    • 推荐显卡: A100
  • Qwen-72B-Chat 等 72B模型
    • 最低显存要求: 145GB
    • 推荐显卡:多卡 A100 以上

一种简单的估算方式为:

  1. FP16: 显存占用(GB) = 模型量级 x 2
  2. Int4: 显存占用(GB) = 模型量级 x 0.75

1.3、个人配置参考

处理器: Intel® Core™ i9 processor 14900K 
内存: 256 GB DDR5
显卡组:  NVIDIA RTX4090 X 1 / NVIDIA RTXA6000 X 1
硬盘: 1 TB
操作系统: Ubuntu 22.04 LTS / Arch Linux, Linux Kernel 6.6.7
显卡驱动版本: 545.29.06
Cuda版本: 12.3 Update 1
Python版本: 3.11.7

2、创建cuda环境

  1. # 创建chatchat 环境
  2. conda create -n chatchat python=3.11.8
  3. # 激活环境
  4. conda activate chatchat

3、下载源码及模型

  1. cd /home/chatchat
  2. git clone --recursive https://github.com/chatchat-space/Langchain-Chatchat.git
  3. # 进入目录
  4. cd Langchain-Chatchat
  5. # 安装全部依赖
  6. pip install -r requirements.txt
  7. # 模型下载 chatglm3-6b
  8. # 需要在hugging face中下载,依赖lfs 插件, 并且需要借助VPN
  9. cd /home/chatchat/models
  10. git lfs install
  11. git clone https://huggingface.co/THUDM/chatglm3-6b
  12. git clone https://huggingface.co/BAAI/bge-large-zh-v1.5
  13. # git clone https://huggingface.co/THUDM/chatglm2-6b
  14. # git clone https://huggingface.co/moka-ai/m3e-base

4、配置文件修改

1、在/home/chatchat/Langchain-Chatchat/configs目录下面找到model_config.py修改其中模型配置

我的目录结构

- Langchain-Chatchat  

- models

  --bge-large-zh  

  --chatglm3-6b

1e7edfcc130c406c8d232d106c3c9de8.png

2、服务和端口配置项 server_config.py

通常,这个页面并不需要进行大量的修改,仅需确保对应的端口打开,并不互相冲突即可。

如果你是Linux系统推荐设置

DEFAULT_BIND_HOST ="0.0.0.0"

5、初始化知识库

当前项目的知识库信息存储在数据库中,在正式运行项目之前请先初始化数据库(我们强烈建议您在执行操作前备份您的知识文件)。

 5.1、训练自己的知识库

  1. cd /home/chatchat/models
  2. # 文字转向量模型
  3. git clone https://huggingface.co/BAAI/bge-large-zh
  •  如果您是第一次运行本项目,知识库尚未建立,或者之前使用的是低于最新master分支版本的框架,或者配置文件中的知识库类型、嵌入模型发生变化,或者之前的向量库没有开启 normalize_L2,需要以下命令初始化或重建知识库:
  1. cd /home/chatchat/Langchain-Chatchat
  2. python init_database.py --recreate-vs
  • 如果您已经有创建过知识库,可以先执行以下命令创建或更新数据库表:

  1. cd /home/chatchat/Langchain-Chatchat
  2. python init_database.py --create-tables

        如果可以正常运行,则无需再重建知识库。

6、启动

python startup.py -a

cdf8f78993f94bc8b820c705b5ec239f.png

可视化页面

注意左侧的温度参数:Temperature。对回答结果有影响

a6e4e50998f9460788bbd9750388524c.png

启动参数

  • --all-webui 为一键启动 WebUI 所有依赖服务;
  • --all-api 为一键启动 API 所有依赖服务;
  • --llm-api 为一键启动 Fastchat 所有依赖的 LLM 服务;
  • --openai-api 为仅启动 FastChat 的 controller 和 openai-api-server 服务;
  • 其他为单独服务启动选项。

若想指定非默认模型,需要用 --model-name 选项,示例:

python startup.py --all-webui --model-name Qwen-7B-Chat

更多信息可通过 查看。

python startup.py -h 

ba57aa2eb3cc4953835709264c8de91c.png

7、API接口调用

7.1、使用openai

  1. # 需要安装openai 依赖,如果报错,安装指定版本,
  2. # pip install openai==0.28
  3. import openai
  4. openai.api_key = "EMPTY"
  5. openai.api_base = "http://192.168.1.1:20000/v1"
  6. model = "chatglm3-6b"
  7. # create a chat completion
  8. completion = openai.ChatCompletion.create(
  9. model=model,
  10. messages=[{"role": "user", "content": "你好"}]
  11. )
  12. print(completion.choices[0].message.content)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/950805
推荐阅读
相关标签
  

闽ICP备14008679号