当前位置:   article > 正文

Firefly调参Baichuan13B_peft lora微调baichuan-13b

peft lora微调baichuan-13b

Qlora微调

1.在/Firefly/train_args/qlora中修改baichuan-13b-sft-qlora.json 

 2.在/Firefly/script修改merge_lora.py 

 3.权重合并

如果使用LoRA或者QLoRA进行训练,本项目仅保存adapter的权重和配置文件,需要将adapter权重与base model进行合并。脚本见script/merge_lora.py,

在script文件下执行python merge_lora.py

4.指定卡训练(我用的单卡)

CUDA_VISIBLE_DEVICES=0 torchrun --nproc_per_node=1 train_qlora.py --train_args_file train_args/qlora/baichuan-13b-sft-qlora.json

5.在Firefly/script/chat执行py文件

首先修改Firefly/script/chat/中的single_chat.py文件

运行single_chat.py文件

CUDA_VISIBLE_DEVICES=0 python single_chat.py

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/568055
推荐阅读
相关标签
  

闽ICP备14008679号