赞
踩
目录
参考官方wiki,本文以Ubuntu20.04_x64,RTX4090,chatglm3-6b 模型为基础
开发者在以下环境下进行代码调试,在该环境下能够避免最多环境问题。
在GPU运行本地模型的 FP16 版本
一种简单的估算方式为:
- FP16: 显存占用(GB) = 模型量级 x 2
- Int4: 显存占用(GB) = 模型量级 x 0.75
处理器: Intel® Core™ i9 processor 14900K
内存: 256 GB DDR5
显卡组: NVIDIA RTX4090 X 1 / NVIDIA RTXA6000 X 1
硬盘: 1 TB
操作系统: Ubuntu 22.04 LTS / Arch Linux, Linux Kernel 6.6.7
显卡驱动版本: 545.29.06
Cuda版本: 12.3 Update 1
Python版本: 3.11.7
- # 创建chatchat 环境
- conda create -n chatchat python=3.11.8
-
- # 激活环境
- conda activate chatchat
- cd /home/chatchat
- git clone --recursive https://github.com/chatchat-space/Langchain-Chatchat.git
-
- # 进入目录
- cd Langchain-Chatchat
-
- # 安装全部依赖
- pip install -r requirements.txt
-
- # 模型下载 chatglm3-6b
- # 需要在hugging face中下载,依赖lfs 插件, 并且需要借助VPN
- cd /home/chatchat/models
- git lfs install
- git clone https://huggingface.co/THUDM/chatglm3-6b
-
- git clone https://huggingface.co/BAAI/bge-large-zh-v1.5
-
- # git clone https://huggingface.co/THUDM/chatglm2-6b
- # git clone https://huggingface.co/moka-ai/m3e-base
1、在/home/chatchat/Langchain-Chatchat/configs
目录下面找到model_config.py
修改其中模型配置
我的目录结构
- Langchain-Chatchat
- models
--bge-large-zh
--chatglm3-6b
2、服务和端口配置项 server_config.py
通常,这个页面并不需要进行大量的修改,仅需确保对应的端口打开,并不互相冲突即可。
如果你是Linux系统推荐设置
DEFAULT_BIND_HOST ="0.0.0.0"
当前项目的知识库信息存储在数据库中,在正式运行项目之前请先初始化数据库(我们强烈建议您在执行操作前备份您的知识文件)。
- cd /home/chatchat/models
- # 文字转向量模型
- git clone https://huggingface.co/BAAI/bge-large-zh
normalize_L2
,需要以下命令初始化或重建知识库:- cd /home/chatchat/Langchain-Chatchat
- python init_database.py --recreate-vs
如果您已经有创建过知识库,可以先执行以下命令创建或更新数据库表:
- cd /home/chatchat/Langchain-Chatchat
- python init_database.py --create-tables
如果可以正常运行,则无需再重建知识库。
python startup.py -a
可视化页面
注意左侧的温度参数:Temperature。对回答结果有影响
启动参数
--all-webui
为一键启动 WebUI 所有依赖服务;--all-api
为一键启动 API 所有依赖服务;--llm-api
为一键启动 Fastchat 所有依赖的 LLM 服务;--openai-api
为仅启动 FastChat 的 controller 和 openai-api-server 服务;若想指定非默认模型,需要用 --model-name
选项,示例:
python startup.py --all-webui --model-name Qwen-7B-Chat
更多信息可通过 查看。
python startup.py -h
- # 需要安装openai 依赖,如果报错,安装指定版本,
- # pip install openai==0.28
- import openai
- openai.api_key = "EMPTY"
- openai.api_base = "http://192.168.1.1:20000/v1"
-
- model = "chatglm3-6b"
-
- # create a chat completion
- completion = openai.ChatCompletion.create(
- model=model,
- messages=[{"role": "user", "content": "你好"}]
- )
- print(completion.choices[0].message.content)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。