当前位置:   article > 正文

LLM:Vicuna 13B 环境配置(7B需要14G显存,13B需要28G显存)_13b模型 需要多大的显存

13b模型 需要多大的显存

租用服务器3090

配置Fastchat
  GitHub项目源地址:https://github.com/lm-sys/FastChat

先进行依赖包安装

pip3 install fschat


下载项目到本地,慢的话可以自己下载好通过FTP上传到服务器

  1. git clone https://github.com/lm-sys/FastChat.git
  2. cd FastChat


升级pip并安装依赖包

  1. # 不升级pip会报错,下面两种方式二选一
  2. python3 -m pip install --upgrade pip # 方式一
  3. pip3 install --upgrade pip   # 方式二
  4. # 升级之后运行下面命令进行安装
  5. pip3 install -e .

配置transformers

  1. # 下载transformers包
  2. git clone https://github.com/huggingface/transformers.git
  3. # 进入transformers目录
  4. cd transformers
  5. # 安装transformers
  6. pip3 install -e .

上传模型权重——使用阿里云盘上传到数据盘(自己提前下载模型权重并保存到自己的阿里云盘)

 启动vicuna-13b模型

  1. # 显卡有28G显存用此命令
  2. python3 -m fastchat.serve.cli --model-path /root/autodl-tmp/vicuna-13b
  3. # 显卡不足28G显存用此命令
  4. python3 -m fastchat.serve.cli --model-path /root/autodl-tmp/vicuna-13b --load-8bit
  5. # /root/autodl-tmp/vicuna-13b 为模型权重路径,可以根据自己的情况替换为自己的路径

运行成功(7B和33B部署流程也一样,只是每个模型所需要的显存不一样,需要不同配置的显卡)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/blog/article/detail/53674
推荐阅读
相关标签
  

闽ICP备14008679号