赞
踩
在开始第二次微调之前,请先下载我们提供的预训练模型。有两个版本可用:InternVL-Chat-V1-2和InternVL-Chat-V1-2-Plus。我们建议下载 Plus 版本。
使用以下命令下载所需的模型:
cd pretrained/ # pip install -U huggingface_hub # Download OpenGVLab/InternVL-Chat-V1-2 huggingface-cli download --resume-download --local-dir-use-symlinks False OpenGVLab/InternVL-Chat-V1-2 --local-dir InternVL-Chat-V1-2 # Download OpenGVLab/InternVL-Chat-V1-2-Plus huggingface-cli download --resume-download --local-dir-use-symlinks False OpenGVLab/InternVL-Chat-V1-2-Plus --local-dir InternVL-Chat-V1-2-Plus
下载预训练模型后,准备自定义的 SFT(监督微调)数据。创建internvl_chat/shell/data/
类似于此示例的JSON 文件。
JSON 文件的格式应为:
{
"your-custom-dataset-1": {
"root": "path/to/the/image/",
"annotation": "path/to/the/jsonl/annotation",
"data_augment": false,
"repeat_time": 1,
"length": "number of your data"
},
...
}
例子:
{ "sharegpt4v_instruct_gpt4-vision_cap100k": { "root": "playground/data/", "annotation": "playground/opensource/sharegpt4v_instruct_gpt4-vision_cap100k.jsonl", "data_augment": false, "repeat_time": 1, "length": 102025 } }
根据您可用的 GPU 资源,使用用于训练完整 LLM 的脚本或用于训练 LoRA 适配器的脚本对预训练模型进行微调。
在微调之前,请将 设置--meta_path
为上一步中创建的 JSON 文件的路径。这些 shell 脚本中默认的预训练模型路径是。如果您使用的是 Plus 版本,./pretrained/InternVL-Chat-V1-2
请将其更新为。./pretrained/InternVL-Chat-V1-2-Plus
Note: Fine-tuning the full LLM requires 16 A100 80G GPUs, whereas fine-tuning the LoRA requires 2 A100 80G GPUs.
注意:微调完整的 LLM 需要 16 个 A100 80G GPU,而微调 LoRA 需要 2 个 A100 80G GPU。
微调命令:
# Using 16 GPUs with SLURM system, fine-tune the full LLM PARTITION='your partition' GPUS=16 sh shell/hermes2_yi34b/internvl_chat_v1_2_hermes2_yi34b_448_res_finetune_continue.sh # Using 2 GPUs, fine-tune the LoRA CUDA_VISIBLE_DEVICES=0,1 sh shell/hermes2_yi34b/internvl_chat_v1_2_hermes2_yi34b_448_res_finetune_continue_lora.sh
如果您遇到任何问题,请告诉我,我会更新培训指南以增强其可用性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。