赞
踩
咱们还是用lit-llama(环境安装过程见上篇博客)
模型下载
在huggingface上搜索"llama chinese",我们选以下这个模型,如图所示:
模型转换
切换到lit-llama的工程,修改scripts/convert_hf_checkpoint.py,修改路径,
切换到lit-llama项目路径下,运行如下指令,进行模型转换:
python scripts/convert_hf_checkpoint.py
转换完毕后,在刚才设置的输出路径,会得到lit-llama.pth文件(26G),在上一级目录有tokenizer.model文件
python scripts/prepare_alpaca.py
修改vocab_size
由于原始llama-7b指令的vocab_size为32000,而下载的中文llama-7b的词典大小为49953,需要对其进行修改。打开lit-llama/model.py,将padded_vocab_size设置为49953,如下图所示:
打开finetune/lora.py(建议复制一份),修改训练脚本指令路径,包括:
1)data_dir:中文指令文件路径
2)pretrained_path:转换之后的中文lit-llama.pth路径
3)tokenizer_path:中文llama-7b的tokenizer.model路径
4)out_dir:保存lora权重文件的路径
切换到lit-llama项目路径,运行以下指令开始指令微调:
python finetune/lora.py
训练过程如下所示:
切换到lit-llama项目路径,打开generate/lora.py(建议复制一份),修改对应的权重路径和tokenizer.model路径,如下图所示:
我们设置prompt为"中国的首都是哪里?",运行如下指令进行测试:
python generate/lora-chinese.py --prompt "中国的首都是哪里?"
测试结果如下所示:
总结:
结束。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。