赞
踩
一直喜欢用 FastChat 本地部署大语言模型,今天试一试 text-generation-webui 这个项目。
text-generation-webui 适用于大型语言模型的 Gradio Web UI。支持transformers、GPTQ、AWQ、EXL2、llama.cpp (GGUF)、Llama 模型。
它的特点如下,
git clone https://github.com/oobabooga/text-generation-webui.git;
cd text-generation-webui
(Optional)安装 Conda,
curl -sL "https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh" > "Miniconda3.sh"
bash Miniconda3.sh
创建虚拟环境,
conda create -n textgen python=3.11 -y
conda activate textgen
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
确认 pytorch 是否安装成功,
python -c "import torch;print(torch.cuda.is_available()):
--- 安装成功输出应该为 True
True
conda install -y -c "nvidia/label/cuda-12.1.1" cuda-runtime
如果您需要 nvcc 手动编译某些库,请将上面的命令替换为,
conda install -y -c "nvidia/label/cuda-12.1.1" cuda
pip install -r requirements.txt
pip install transformers_stream_generator
pip install tiktoken
python server.py
# python server.py --trust-remote-code --listen
使用浏览器打开 http://localhost:7860/?__theme=dark
pip install -r extensions/openai/requirements.txt
启动,
python server.py --trust-remote-code --api --api-port 8000 --listen
refer:https://github.com/oobabooga/text-generation-webui/wiki/12—OpenAI-API
完结!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。