赞
踩
在autodl中安装的llama-factory中,为我们明确提供了将训练的checkpoint重新与大模型合并的python函数。其具体路径为:LLaMA-Factory/examples/merge_lora
在该路径下找到llama3_lora_sft.yaml该代码,将其中具体的模型名、微调名、模版以及对应的输出模型名全部改为与自己autodl本地对应的,具体如下:
- ### Note: DO NOT use quantized model or quantization_bit when merging lora adapters
-
- ### model
- model_name_or_path: /root/autodl-tmp/LLM-Research/Meta-Llama-3-8B-Instruct
- adapter_name_or_path: saves/Custom/lora/train_v8
- template: llama3
- finetuning_type: lora
-
- ### export
- export_dir: models/llama3_lora_sft
- export_size: 2
- export_device: cpu
- export_legacy_format: false
修改完毕后,我们便可以利用以下代码,在终端中执行,便可以实现对应的模型合并工作。
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml
完成后的模型如图所示:
后续可以对该模型进行部署或是api的设计。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。