当前位置:   article > 正文

【大模型】微调Qwen1.8B_qwen1.8b github

qwen1.8b github

1.前言 

        使用地址数据微调Qwen1.8B。Qwen提供了预构建的Docker镜像,在使用时获取镜像只需安装驱动、下载模型文件即可启动Demo、部署OpenAI API以及进行微调。

        github地址:GitHub - QwenLM/Qwen: The official repo of Qwen (通义千问) chat & pretrained large language model proposed by Alibaba Cloud.​​​​​​​

        镜像地址:https://hub.docker.com/r/qwenllm/qwen/tags

        获取方式:docker pull qwenllm/qwen:cu117

 2.微调过程

        Qwen的介绍中给出了详细的微调教程。可访问千问github中的微调章节查看。如果使用预先准备的docker,微调则更为方便。

2.1 准备镜像

        需要注意的是:在官方提供的docker镜像中,运行docker run 镜像成为容器后,会启动镜像中的python服务。Dockerfile中最后一行命令为"CMD ["python3" "web_demo.py" "--server-port" "80"]。我们在使用容器微调时,不需要让容器中开启服务,所以需要以官方提供的镜像为基础,再做一个镜像。 Dockerfile内容如下。

  1. FROM qwenllm/qwen:cu117
  2. # CMD 设置为一个空命令,这样可以在容器启动时不执行任何操作
  3. CMD ["/bin/sh", "-c", "tail -f /dev/null"]
  1. #创建镜像
  2. docker build -t qwenllm/qwen:cu117_V1 .

2.2 准备数据

        首先,需要准备训练数据。需要将所有样本放到一个列表中并存入json文件中。每个样本对应一个字典,包含id和conversation,其中后者为一个列表。示例如下所示:

  1. [
  2. {
  3. "id": "identity_0",
  4. "conversations": [
  5. {
  6. "from": "user",
  7. "value": "你好"
  8. },
  9. {
  10. "from": "assistant",
  11. "value": "我是一个语言模型,我叫通义千问。"
  12. }
  13. ]
  14. }
  15. ]

本次微调的训练为指令微调,数据示例如下:

  1. [
  2. {
  3. "id": "identity_0",
  4. "conversations": [
  5. {
  6. "from": "user",
  7. "value": "识别以下句子中的地址信息,并按照{address:['地址']}的格式返回。如果没有地址,返回{address:[]}。句子为:在一本关于人文的杂志中,我们发现了一篇介绍北京市海淀区科学院南路76号社区服务中心一层的文章,文章深入探讨了该地点的人文历史背景以及其对于当地居民的影响。"
  8. },
  9. {
  10. "from": "assistant",
  11. "value": "{\"address\":\"北京市海淀区科学院南路76号社区服务中心一层\"}"
  12. }
  13. ]
  14. },
  15. {
  16. "id": "identity_1",
  17. "conversations": [
  18. {
  19. "from": "user",
  20. "value": "识别以下句子中的地址信息,并按照{address:['地址']}的格式返回。如果没有地址,返回{address:[]}。句子为:近日,位于北京市房山区政通路13号的某儿童教育机构因出色的育儿理念和创新教学方法引起了广泛关注。"
  21. },
  22. {
  23. "from": "assistant",
  24. "value": "{\"address\":\"北京市房山区政通路13号\"}"
  25. }
  26. ]
  27. },
  28. {
  29. "id": "identity_2",
  30. "conversations": [
  31. {
  32. "from": "user",
  33. "value": "识别以下句子中的地址信息,并按照{address:['地址']}的格式返回。如果没有地址,返回{address:[]}。句子为:在军事领域中,位于朝阳区惠民园4号楼底商的某单位,一直致力于各种研究和发展工作,以保障国家安全和稳定。"
  34. },
  35. {
  36. "from": "assistant",
  37. "value": "{\"address\":\"朝阳区惠民园4号楼底商\"}"
  38. }
  39. ]
  40. }
  41. ]

2.3 微调

2.3.1 微调方法1

        我们借助Qwen给出的docker进行微调。图为使用docker进行微调的示例。

  1. IMAGE_NAME=qwenllm/qwen:cu117
  2. CHECKPOINT_PATH='/ssd/dongzhenheng/LLM/Qwen-1_8B-Chat' # 下载的模型和代码路径
  3. #CHECKPOINT_PATH=/path/to/Qwen-7B-Chat-Int4 # 下载的模型和代码路径 (Q-LoRA)
  4. DATA_PATH='/data/zhenhengdong/WORk/Fine-tuning/Codes/' # 准备微调数据放在 ${DATA_PATH}/example.json #data.json
  5. OUTPUT_PATH='/ssd/dongzhenheng/LLM/Qwen-Address/tezt' # 微调输出路径
  6. # 默认使用主机所有GPU
  7. DEVICE=all
  8. # 如果需要指定用于训练的GPU,按照以下方式设置device(注意:内层的引号不可省略)
  9. #DEVICE='"device=0,3"'
  10. mkdir -p ${OUTPUT_PATH}
  11. # 单卡LoRA微调
  12. docker run --gpus ${DEVICE} --rm --name qwen \
  13. --mount type=bind,source=${CHECKPOINT_PATH},target=/data/shared/Qwen/Qwen-7B \
  14. --mount type=bind,source=${DATA_PATH},target=/data/shared/Qwen/data \
  15. --mount type=bind,source=${OUTPUT_PATH},target=/data/shared/Qwen/output_qwen \
  16. --shm-size=2gb \
  17. -it ${IMAGE_NAME} \
  18. bash finetune/finetune_lora_single_gpu.sh -m /data/shared/Qwen/Qwen-7B/ -d /data/shared/Qwen/data/data.json
  19. #bash finetune/finetune_lora_ds.sh -m /data/shared/Qwen/Qwen-7B/ -d /data/shared/Qwen/data/data.json
  20. #bash finetune/finetune_lora_ds.sh -m /data/shared/Qwen/Qwen-7B/ -d /data/shared/Qwen/data/data.json
  21. #bash finetune/finetune_lora_ds.sh -m /data/shared/Qwen/Qwen-7B/ -d /data/shared/Qwen/data/data.json

微调时间较长,运行时可以新启动一个screen。

微调结束后会在指定的输出目录下输出adapter的相关文件。

2.3.2 微调方法2

        微调方法1中直接运行了finetune/finetune_lora_single_gpu.sh脚本进行微调。finetune_lora_single_gpu.sh中的内容如下。

  1. #!/bin/bash
  2. export CUDA_DEVICE_MAX_CONNECTIONS=1
  3. MODEL="your model path" # Set the path if you do not want to load from huggingface directly
  4. # ATTENTION: specify the path to your training data, which should be a json file consisting of a list of conversations.
  5. # See the section for finetuning in README for more information.
  6. DATA="your data path"
  7. function usage() {
  8. echo '
  9. Usage: bash finetune/finetune_lora_single_gpu.sh [-m MODEL_PATH] [-d DATA_PATH]
  10. '
  11. }
  12. while [[ "$1" != "" ]]; do
  13. case $1 in
  14. -m | --model )
  15. shift
  16. MODEL=$1
  17. ;;
  18. -d | --data )
  19. shift
  20. DATA=$1
  21. ;;
  22. -h | --help )
  23. usage
  24. exit 0
  25. ;;
  26. * )
  27. echo "Unknown argument ${1}"
  28. exit 1
  29. ;;
  30. esac
  31. shift
  32. done
  33. export CUDA_VISIBLE_DEVICES=3
  34. python finetune.py \
  35. --model_name_or_path $MODEL \
  36. --data_path $DATA \
  37. --bf16 True \
  38. --output_dir output_qwen \
  39. --num_train_epochs 50\
  40. --per_device_train_batch_size 2 \
  41. --per_device_eval_batch_size 1 \
  42. --gradient_accumulation_steps 8 \
  43. --evaluation_strategy "no" \
  44. --save_strategy "steps" \
  45. --save_steps 1000 \
  46. --save_total_limit 5 \
  47. --learning_rate 3e-4 \
  48. --weight_decay 0.1 \
  49. --adam_beta2 0.95 \
  50. --warmup_ratio 0.01 \
  51. --lr_scheduler_type "cosine" \
  52. --logging_steps 1 \
  53. --report_to "none" \
  54. --model_max_length 512 \
  55. --lazy_preprocess True \
  56. --gradient_checkpointing \
  57. --use_lora
  58. # If you use fp16 instead of bf16, you should use deepspeed
  59. # --fp16 True --deepspeed finetune/ds_config_zero2.json

各个参数的解释如下: 

  1. python finetune.py: 运行脚本finetune.py,用于微调模型。
  2. --model_name_or_path $MODEL: 指定预训练模型的名称或路径。$MODEL是一个变量,将在运行时替换为实际的模型路径。
  3. --data_path $DATA: 指定向量化的训练数据集路径。$DATA是一个变量,将替换为实际的数据集路径。
  4. --bf16 True: 使用BF16(Brain Floating Point 16)精度进行训练,以降低内存消耗和加速计算。
  5. --output_dir output_qwen: 指定模型训练完成后输出文件的目录名。
  6. --num_train_epochs 50: 设置训练轮数为50轮。
  7. --per_device_train_batch_size 2: 每个设备上的训练批次大小为2,即每次在每个GPU上处理2个样本。
  8. --per_device_eval_batch_size 1: 每个设备上的评估批次大小为1。
  9. --gradient_accumulation_steps 8: 累积8个步骤的梯度后再更新权重,等效于增大了训练批次大小。
  10. --evaluation_strategy "no": 不在训练过程中执行评估。
  11. --save_strategy "steps": 根据步数保存模型,而不是按时间间隔保存。
  12. --save_steps 1000: 每训练1000个步后保存一次模型。
  13. --save_total_limit 5: 限制最多保存最近的5个模型检查点。
  14. --learning_rate 3e-4:指定学习率(learning rate),这是优化器更新权重时使用的步长。值为3乘以10的负4次方,意味着训练过程中的学习速率相对较小,有助于更精细地调整模型参数。
  15. --weight_decay 0.1:L2正则化系数,也称为权重衰减(weight decay)。它用于防止模型过拟合,通过对权重矩阵施加惩罚来约束模型复杂度。
  16. --adam_beta2 0.95:Adam优化器中的第二个动量项的指数衰减率(beta2)。Adam是一种常用的优化算法,该参数影响了历史梯度平方项的累积速度。
  17. --warmup_ratio 0.01:学习率预热比例,用于学习率调度器中。这意味着在训练开始阶段会有一个学习率逐渐增大的“预热”阶段,其长度占整个训练周期的1%。
  18. --lr_scheduler_type "cosine":学习率调度器类型,这里使用的是余弦退火(Cosine Annealing)策略。在训练过程中,学习率会按照余弦函数的变化规律进行动态调整。
  19. --logging_steps 1:指定每多少个步骤输出一次日志信息。设置为1意味着每次迭代(通常是每个训练批次后)都会记录训练状态或指标。
  20. --report_to "none":设置训练结果报告的位置或方式。"none"意味着不向任何工具或平台报告进度或指标。
  21. --model_max_length 512:定义模型处理的最大序列长度。这意味着输入数据将被截断或者填充到不超过512个token。
  22. --lazy_preprocess True:如果支持的话,启用延迟预处理模式。在这种模式下,数据预处理将在需要时而不是一次性全部完成,可以减少内存占用。
  23. --gradient_checkpointing:启用梯度检查点功能,这是一种内存优化技术,通过存储和恢复中间层的激活以节省内存,特别适用于大模型训练。
  24. --use_lora:表示在微调过程中应用LoRA(Low-Rank Adaptation)方法,这是一种针对大规模模型参数高效的微调技术,通过引入低秩适配器来更新模型权重,而不直接修改所有参数,从而减少计算资源消耗。

        在中finetune.py中有LoraArguments类,调整lora的参数则可在finetune.py中调整。代码如下:

  1. class LoraArguments:
  2. lora_r: int = 64
  3. lora_alpha: int = 16
  4. lora_dropout: float = 0.05
  5. lora_target_modules: List[str] = field(default_factory=lambda: ["c_attn", "c_proj", "w1", "w2"])
  6. lora_weight_path: str = ""
  7. lora_bias: str = "none"
  8. q_lora: bool = False

相应参数解释如下: 

  1. 1. lora_r (int = 64):
  2. 含义:表示LoRA rank的大小,这是一个非常重要的超参数。LoRA通过引入低秩矩阵来近似原模型中的权重矩阵,从而减少参数量。`lora_r`定义了这个低秩矩阵的列数,即低秩近似的维度。较大的`lora_r`可以提供更强大的表达能力,但也意味着更多的计算资源消耗和存储需求。
  3. 2. lora_alpha (int = 16):
  4. 含义:是LoRA缩放因子(scaling factor),用于控制LoRA更新的幅度。它影响着学习率如何映射到LoRA矩阵上,较大的`lora_alpha`会使得LoRA参数的学习速率相对更高,可能加速收敛但也可能增加过拟合风险。
  5. 3. lora_dropout (float = 0.05):
  6. 含义:指在训练过程中对LoRA层应用的丢弃率(Dropout)。这是一种正则化手段,用于防止过拟合。值为0.05意味着在训练时有5%的概率随机“丢弃”(置为0)LoRA层的部分神经元,以此来增加模型的泛化能力。
  7. 4. lora_target_modules (List[str] = field(default_factory=lambda: ["c_attn", "c_proj", "w1", "w2"])):
  8. 含义:指定了哪些模块或层将应用LoRA调整。在Transformer架构中,"c_attn""c_proj"通常对应于自注意力层和前馈网络层的权重,而"w1""w2"可能是特定模型中的权重标识。这个列表决定了模型中哪些部分会接受微调,从而针对性地调整模型行为。
  9. 5. lora_weight_path (str = ""):
  10. 含义:这是预训练LoRA权重的文件路径。如果之前已经进行了LoRA微调并保存了权重,可以通过指定此路径加载这些权重作为继续训练或推理的起点。
  11. 6. lora_bias (str = "none"):
  12. 含义:决定是否对偏置项应用LoRA调整。"none"意味着不对偏置项应用LoRA,保持原样。其他可能的值(如果框架支持)可能会包括直接对偏置进行调整的选项。
  13. 7. q_lora (bool = False):
  14. 含义:如果设为True,则表示使用量化版本的LoRA,这通常是为了减少内存占用和加速推理。量化会将模型中的权重从浮点数转换为更低精度的数据类型(如int8),在牺牲少量精度的情况下大幅降低计算和存储成本。

        如果想更改finetune.py的参数,那就需要进入进入容器中微调。可以在容器外修改finetune_lora_single_gpu.sh文件中的参数,比如训练的轮次、训练的批次、训练多少步后保存模型、模型处理的最大序列长度等。修改后将文件cp到容器中。具体过程如下:

  1. #启动docker
  2. docker run --gpus all -v /ssd/dongzhenheng/LLM/Qwen-14B-Chat:/data/shared/Qwen/Qwen-Chat/ -d qwenllm/qwen:cu121_V1
  3. #查看容器id
  4. docker ps
  5. #根据容器id进入容器
  6. docker exec -it 容器id bash
  7. #cp 进去data
  8. docker cp /data/zhenhengdong/WORk/Fine-tuning/Qwen-14B/Datasets/data_1.json b81df07711cf:/data/shared/Qwen
  9. #修改checkpoint.py,注释掉waring。避免在运行的时候出现很长的wraing
  10. docker cp /data/zhenhengdong/WORk/Fine-tuning/Qwen-14B/Codes/checkpoint.py b81df07711cf:/usr/local/lib/python3.8/dist-packages/torch/utils
  11. #修改finetune_lora_single_gpu.sh 中的参数
  12. docker cp /data/zhenhengdong/WORk/Fine-tuning/Qwen-14B/Codes/finetune_lora_single_gpu_1.sh b81df07711cf:/data/shared/Qwen/finetune
  13. # 运行 因为在finetune_lora_single_gpu.sh 中指定了模型地址和数据地址,所以在运行的时候也可以不用指定 -d 和 -m了
  14. bash finetune/finetune_lora_single_gpu_1.sh -m /data/shared/Qwen/Qwen-Chat -d /data/shared/Qwen/data_1.json

        微调结束后,会生成output_qwen的文件夹。

        里面是模型微调时保存的模型。

         微调过程如下:

微调结束后,可以选择checkpoint复制到容器外,再调用或者merge。  

 2.4 调用

        微调之后的调用,Qwen也给出了详细示例。

        在调用时需要注意更换一下adapert_config.json中的模型路径。将base_model_name_or_path换成自己微调的模型路径。

  1. from peft import AutoPeftModelForCausalLM
  2. path_to_adapter = '/ssd/dongzhenheng/LLM/Qwen-Address/tezt'
  3. model = AutoPeftModelForCausalLM.from_pretrained(
  4. path_to_adapter, # path to the output directory
  5. device_map="cuda:0",
  6. trust_remote_code=True
  7. ).eval()

2.5 合并

        合并以docker中的为例

  1. from peft import AutoPeftModelForCausalLM
  2. path_to_adapter = '/data/shared/Qwen/output_qwen'
  3. model = AutoPeftModelForCausalLM.from_pretrained(
  4. path_to_adapter, # path to the output directory
  5. device_map="auto",
  6. trust_remote_code=True
  7. ).eval()
  8. new_model_directory = '/data/shared/Qwen/New_model_directory'
  9. merged_model = model.merge_and_unload()
  10. # max_shard_size and safe serialization are not necessary.
  11. # They respectively work for sharding checkpoint and save the model to safetensors
  12. merged_model.save_pretrained(new_model_directory, max_shard_size="2048MB", safe_serialization=True)

执行过程  

  

目录文件

New_model_directory目录将包含合并后的模型参数与相关模型代码。请注意*.cu*.cpp文件没被保存,需要手动从Qwen-1_8B-Chat中复制。merge_and_unload仅保存模型,并未保存tokenizer,如有需要,请复制相关文件或使用以以下代码保存 。

  1. from transformers import AutoTokenizer
  2. tokenizer = AutoTokenizer.from_pretrained(
  3. path_to_adapter, # path to the output directory
  4. trust_remote_code=True
  5. )
  6. tokenizer.save_pretrained(New_model_directory)

2.6 合并调用

        合并并存储模型后即可用常规方式读取新模型。

  1. checkpoint_path = '/data/shared/Qwen/New_model_directory'
  2. tokenizer = AutoTokenizer.from_pretrained(
  3. checkpoint_path,
  4. trust_remote_code=True, resume_download=True,
  5. )
  6. device_map = "auto"
  7. model = AutoModelForCausalLM.from_pretrained(
  8. checkpoint_path,
  9. device_map=device_map,
  10. trust_remote_code=True,
  11. resume_download=True,
  12. bf16=True
  13. ).eval()
  14. model.generation_config = GenerationConfig.from_pretrained(
  15. checkpoint_path, trust_remote_code=True, resume_download=True,
  16. )
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/870725
推荐阅读
相关标签
  

闽ICP备14008679号