赞
踩
如果使用LoRA或者QLoRA进行训练,本项目仅保存adapter的权重和配置文件,需要将adapter权重与base model进行合并。脚本见script/merge_lora.py,
在script文件下执行python merge_lora.py
CUDA_VISIBLE_DEVICES=0 torchrun --nproc_per_node=1 train_qlora.py --train_args_file train_args/qlora/baichuan-13b-sft-qlora.json
首先修改Firefly/script/chat/中的single_chat.py文件
运行single_chat.py文件
CUDA_VISIBLE_DEVICES=0 python single_chat.py
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。