当前位置:   article > 正文

基于autodl与llama-factory微调llama3(五)_llama-factory cpu

llama-factory cpu

基于lora进行merge

在autodl中安装的llama-factory中,为我们明确提供了将训练的checkpoint重新与大模型合并的python函数。其具体路径为:LLaMA-Factory/examples/merge_lora

在该路径下找到llama3_lora_sft.yaml该代码,将其中具体的模型名、微调名、模版以及对应的输出模型名全部改为与自己autodl本地对应的,具体如下:

  1. ### Note: DO NOT use quantized model or quantization_bit when merging lora adapters
  2. ### model
  3. model_name_or_path: /root/autodl-tmp/LLM-Research/Meta-Llama-3-8B-Instruct
  4. adapter_name_or_path: saves/Custom/lora/train_v8
  5. template: llama3
  6. finetuning_type: lora
  7. ### export
  8. export_dir: models/llama3_lora_sft
  9. export_size: 2
  10. export_device: cpu
  11. export_legacy_format: false

修改完毕后,我们便可以利用以下代码,在终端中执行,便可以实现对应的模型合并工作。

llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

完成后的模型如图所示:

后续可以对该模型进行部署或是api的设计。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号