赞
踩
git clone https://github.com/Lightning-AI/lit-llama.git
cd ./lit-llama
pip install -r requirements.txt
(当然,这里可能会遇到网络问题,安装不了lightning)
可使用以下方式安装:
下载lightning工程
解压进入工程目录,使用以下命令安装
python setup.py install
查看lightning是否安装成功:
pip list|grep lightning
(这里注意lightning的版本是2.1.0)
这里我们要基于LLAMA-7B做指令微调,所以要先下载模型权重,并作一系列转换。
python scripts/download.py --repo_id openlm-research/open_llama_7b --local_dir checkpoints/open-llama/7B
(文件有点大,需要等待一些时间)
python scripts/convert_hf_checkpoint.py --checkpoint_dir checkpoints/open-llama/7B --model_size 7B
在命令行,使用如下命令运行:
python generate.py --prompt "Today is a"
使用中文测试,发现效果不好(开始胡说八道了~)
这里使用alpaca的52k指令数据进行微调,使用如下指令:
python scripts/prepare_alpaca.py
如果下载不下来的话,我们直接打开scripts/prepare_alpaca.py文件,如下所示:
直接打开链接 https://raw.githubusercontent.com/tloen/alpaca-lora/main/alpaca_data_cleaned_archive.json,然后全选页面复制,再保存到新建的文件里。
得到alpaca_data_cleaned_archive.json(看名字的clean应该是清洗过的),每条指令包含"instruction"、“input”、"output"三个关键字,本次先不具体展开讲解,如下所示:
运行指令后,还会作数据划分,train-49759, val-2000如下所示:
最后,会在lit-llama/data/alpaca路径下得到以下文件:
使用以下指令:
python finetune/lora.py
训练过程如下所示:
整个训练过程大约要1.5个小时(16:51 ~ 18:22)
训练完毕之后,会在out/lora/alpaca得到一系列lora的权重文件,如下图所示:
使用如下指令进行提问,其中prompt为"what is the capital of China?",
python generate/lora.py --prompt "what is the capital of China?"
得到的结果如下所示
可以看到,经过指令微调之后,模型已经可以正常回答我们的问题了。
(ps:其他细节可以参考工程的README,写的很清楚~)
结束。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。