赞
踩
最近部署运行baichuan2,走了一些弯路,记录下来供参考。主要是遇到的问题及解决方式
CUDA 11.8、python3.10、torch-2.0.1+cu118-cp310-cp310-linux_x86_64.whl、xformers-0.0.22.post3-py310_cu11.8.0_pyt2.0.1.tar.bz2、transformers 4.33.1、bitsandbytes(需支持cuda118版)
腾讯云:CPU 32G、GPU 16G NVIDIA Corporation TU104GL [Tesla T4] (rev a1)
1.创建conda环境
conda create -n baichuan2 python=3.10 conda activate baichuan2 |
2. 进入项目目录
cd Baichuan2
|
如果觉得慢,就上网站https://github.com/baichuan-inc/Baichuan2下载后,解压到Baichuan2目录下。
Bitsandbytes
、
xformers
、
PyTorch和本机的python版本、cuda版本相关,且相互之间也有关系。请正确下载,否则会出现各种意想不到的问题。
Baichuan2用到PyTorch2.0.以上的功能,否则会报错。
升级CUDA可参考https://blog.csdn.net/wangning6252820/article/details/134056484
git clone https://github.com/TimDettmers/bitsandbytes.git cd bitsandbytes CUDA_VERSION=113 make cuda11x python setup.py install |
pip install xformers
或参考https://blog.csdn.net/wangning6252820/article/details/134056100 下载安装对应版本
torch==2.0.1+cu118 --extra-index-url https://download.pytorch.org/whl/cu118
或者参考baichuan2 Torch版本不支持CUDA-CSDN博客, 下载安装对应版本。
pip –r requirements.txt
官网慢的话,可以从清华的镜像里下载,已经安装的可以排除
pip install -r requirements.txt -i Simple Index
git clone https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat-4bits
如果没魔法,可以从国内镜像下载 互链高科。
共十几个文件,执行wget http://61.133.217.142:20800/download/models/baichuan-inc/Baichuan2-7B-Chat-4bits/config.json 依次下载。 大文件记得断点续传。
python cli_demo.py
streamlit run web_ui.py, 同理需要改一下模型的目录
在上文的基础上,
访问互链高科,wget依次下载每个文件
模型文件放在和cli_demo.py同级目录下。
部署过程中遇到了一些问题:
baichuan2部署中,各种属性不存在的报错-CSDN博客
https://blog.csdn.net/wangning6252820/article/details/134056484
https://blog.csdn.net/wangning6252820/article/details/134056100
baichuan2 Torch版本不支持CUDA-CSDN博客
参考其他的:
玩一玩“baichuan2”,很强的中文开源模型,2060s即可流畅运行! - 知乎
https://blog.csdn.net/qq_36383272/article/details/118569105
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。