当前位置:   article > 正文

手把手教学-本地部署minigpt-4_本地部署gpt4

本地部署gpt4

虽然最新版本的minigpt-4需要的显存已经大大减少,但依旧至少需要12GB的显存,我所使用的是3090ti,可以部署,以下就介绍如何在Linux系统下本地部署minigpt-4

minigpt-4本地部署的官方教程请见minigpt-4,本教程也是基于官方教程进行修改整理

环境搭建

第一步:选择合适的地址克隆代码

  1. git clone https://github.com/Vision-CAIR/MiniGPT-4.git
  2. cd MiniGPT-4
  3. conda env create -f environment.yml
  4. conda activate minigpt4

第二步:在minigpt4的conda环境下下载一个cuda
由于environment.yml中pytorch版本是1.12.1,所以这可以下载一个11.6的cuda版本(你的显卡支持最高版本的cuda可以通过命令nvidia-smi查看)
 

conda install cudatoolkit=11.6

然后下载过后通过以下命令查看cuda是否可以使用
 

  1. python
  2. import torch
  3. print(torch.version.cuda) # 查看是否有cuda
  4. print(torch.cuda.is_available()) # 打印出true即可

 第三步:准备预训练Vicuna权重
这里需要准备两个权重文件,然后合并。第一个权重文件Vicuna增量文件,我选择的是7b的v1.1,最好就选择v1.1,这样后面不会报错。

  1. git lfs install
  2. git clone https://huggingface.co/lmsys/vicuna-13b-delta-v0 # more powerful, need at least 24G gpu memory
  3. # or
  4. git clone https://huggingface.co/lmsys/vicuna-7b-delta-v0 # smaller, need 12G gpu memory #
  5. # or
  6. git clone https://huggingface.co/lmsys/vicuna-7b-delta-v1.1 # smaller, need 12G gpu memory #我选择的是v1.1,这里是一个坑,官方提供的是v0,但是大家需要选择1.1后面才不会报tensor不匹配的错误

第二个原始权重文件,一般需要填写表格向官方申请,似乎此路不通,可以从这个路径获得。 

原始权重文件,下载里面的全部文件到上面代码克隆处就好。
第四步:权重合并(把上面两个权重文件合并成一个权重文件夹)

  1. pip install git+https://github.com/lm-sys/FastChat.git@v0.1.10
  2. python -m fastchat.model.apply_delta --base 原始权重文件夹路径 --target 目标文件夹权重路径(合并的权重存放处) --delta 增量权重文件夹路径

把权重合并好之后,在配置文件minigpt4.yaml中model下添加 llama_model: "目标文件夹路径"
第五步:下载预训练权重(在这下面链接找到Checkpoint Aligned with Vicuna 7B下载)

预训练权重下载地址

第六步:运行demo(运行会得到一个进入demo网页的地址)

python demo.py --cfg-path eval_configs/minigpt4_eval.yaml  --gpu-id 0

over!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/350526
推荐阅读
相关标签
  

闽ICP备14008679号