赞
踩
前段时间,斯坦福发布了Alpaca,是由Meta的LLaMA 7B微调而来,仅用了52k数据,性能可以与GPT-3.5匹敌。
FastChat集成了Vicuna、Koala、alpaca、llama等开源模型,其中Vicuna号称能够达到gpt-4的90%的质量,是开源的chatGPT模型中对答效果比较好的。
现在UC伯克利学者联手CMU、斯坦福等,再次推出一个全新模型70亿/130亿参数的Vicuna,俗称「小羊驼」(骆马)。小羊驼号称能达到GPT-4的90%性能,下面来体验一下。
项目地址:https://github.com/lm-sys/FastChat
体验地址:https://chat.lmsys.org/
#官网要求Python版本要>= 3.8
conda create -n fastchat python=3.9
conda activate fastchat
#安装pytorch
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
安装后测试
conda activate fastchat
import torch
print(torch.__version__)
pip3 install fschat
git clone https://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip # enable PEP 660 support
pip3 install -e .
这里由于经费有限,所以使用7B模型,7B大约 需要30 GB 的 CPU RAM
python3 -m fastchat.model.apply_delta \
--base-model-path /path/to/llama-7b \
--target-model-path /path/to/output/vicuna-7b \
--delta-path lmsys/vicuna-7b-delta-v1.1
13B大约需要大约 60 GB 的 CPU RAM。执行方式如下
python3 -m fastchat.model.apply_delta \
--base-model-path /path/to/llama-13b \
--target-model-path /path/to/output/vicuna-13b \
--delta-path lmsys/vicuna-13b-delta-v1.1
执行以下命令后,可以在命令行窗口进行对话
python3 -m fastchat.serve.cli --model-path lmsys/fastchat-t5-3b-v1.0
效果如下:
FastChat还提供了web界面可以使用,具体流程如下
此外还提供了API调用方法,具体可以参考官网调用方法。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。