当前位置:   article > 正文

lora微调过程_loraconfig

loraconfig
  1. import os
  2. import pickle
  3. from transformers import AutoModelForCausalLM
  4. from peft import get_peft_config, get_peft_model, get_peft_model_state_dict, LoraConfig, TaskType
  5. device = "cuda:0"
  6. #1.创建lora微调基本的配置
  7. peft_config = LoraConfig(
  8. task_type=TaskType.CAUSAL_LM,
  9. inference_mode=False,
  10. r=8,
  11. lora_alpha=32,
  12. lora_dropout=0.1,
  13. )

 2.通过调用get_peft_model方法包装基础的Transformer模型

  1. #通过调用get_peft_model方法包装基础的Transformer模型
  2. model = AutoModelForCausalLM("/root/paddlejob/workspace/llama-2-7b-chat")
  3. model = get_peft_model(model, peft_config)

下面是lora微调的模型结构,可以看到多了两个矩阵,一个降维一个升维 

3.训练

  1. # optimizer and lr scheduler
  2. '''len(train_dataloader) 是训练数据集中的批次数量,num_epochs 是训练过程中的迭代次数。因此,len(train_dataloader) * num_epochs 表示整个训练过程中的总迭代次数,即总共要遍历训练数据集的批次数'''
  3. optimizer = torch.optim.AdamW(model.parameters(), lr=lr)
  4. lr_scheduler = get_linear_schedule_with_warmup(
  5. optimizer=optimizer,
  6. num_warmup_steps=0,
  7. num_training_steps=(len(train_dataloader) * num_epochs),)
  8. #training and evaluation
  9. model = model.to('cuda:0')
  10. for epoch in range(num_epochs):
  11. model.train()
  12. total_loss = 0
  13. for step, batch in enumerate(train_dataloader):
  14. batch = {k: v.to('cuda:0') for k, v in batch.items()}
  15. outputs = model(**batch)
  16. loss = outputs.loss
  17. total_loss = total_loss + loss.detach().float()
  18. loss.backward()
  19. optimizer.step()
  20. lr_scheduler.step()
  21. optimizer.zero_grad()
  22. model.eval()
  23. eval_loss = 0
  24. eval_preds = []
  25. for step, batch in enumerate(eval_dataloader):
  26. batch = {k: v.to('cuda:0') for k, v in bacth.items()}
  27. with torch.nograd():
  28. outputs = model(**bacth)
  29. loss = outputs.loss
  30. eval_loss = eval_loss + loss.detach().float()
  31. eval_preds.extend(
  32. tokenizer.bacth_decode(torch.argmax(outputs.logits, -1), skip_special_tokens=True)
  33. )
  34. eval_epoch_loss = eval_loss / len(eval_dataloader)
  35. eval_ppl = torch.exp(eval_epoch_loss)
  36. train_epoch_loss = total_loss / len(train_dataloader)
  37. train_ppl = torch.exp(train_epoch_loss)
  38. '''
  39. 在 Python 中,** 运算符用于将字典解包为关键字参数传递给函数或方法。在 PyTorch 中,model(**batch) 中的 **batch 将字典 batch 中的键值对作为关键字参数传递给模型的方法(通常是前向传播方法)。
  40. 具体来说,**batch 将字典 batch 中的每个键值对解包为一组关键字参数。例如,如果 batch 字典包含键值对 {'input_ids': tensor1, 'attention_mask': tensor2},那么 model(**batch) 实际上就等价于 model(input_ids=tensor1, attention_mask=tensor2)。
  41. 这种方式可以方便地将字典中的数据传递给函数或方法,并且使代码更加简洁和易读。
  42. '''
  43. '''
  44. loss.detach().float() 的作用是将计算图中的 loss 张量分离出来并转换为浮点数类型。
  45. 具体来说:
  46. loss.detach() 会创建一个新的张量,其值与 loss 相同,但不再跟踪梯度信息。这样做是因为在训练过程中,我们通常只需要保存当前步骤的损失值,而不需要其相关的计算图和梯度信息。
  47. .float() 将张量转换为浮点数类型。这是因为通常情况下,损失值是作为浮点数来计算和累加的。
  48. 所以,total_loss += loss.detach().float() 的作用就是将当前步骤的损失值添加到总损失值中,保证总损失值是一个浮点数。
  49. '''
  50. '''
  51. 在使用 PyTorch 进行梯度下降优化时,optimizer.zero_grad() 的作用是将模型参数的梯度归零,以便进行新一轮的梯度计算和更新。这是因为在 PyTorch 中,每次调用 .backward() 方法都会累积梯度,而不是覆盖之前的梯度。因此,在每次迭代更新参数之前,需要先将之前的梯度清零,以免影响当前迭代的梯度计算。
  52. 简而言之,optimizer.zero_grad() 用于初始化梯度,确保每次迭代都是基于当前 batch 的梯度计算和参数更新,而不会受到之前迭代的影响。
  53. '''
  54. '''
  55. outputs.logits 是模型生成的原始输出,通常是一个三维张量,其中包含了模型对于每个词汇的得分(未经过 softmax 处理)。在语言模型中,这个张量的维度通常是 (batch_size, sequence_length, vocab_size),其中 batch_size 表示批量大小,sequence_length 表示每个序列的长度,vocab_size 表示词汇表的大小。
  56. 在生成文本任务中,outputs.logits 的每个元素表示模型在当前位置生成每个词汇的得分。通常,需要对这些得分进行 softmax 处理以获得每个词汇的概率分布,然后根据概率分布进行采样或选择最高概率的词汇作为模型生成的下一个词。
  57. torch.argmax 是 PyTorch 库中的一个函数,用于返回张量中指定维度上的最大值的索引。具体而言,对于一个输入张量,torch.argmax(input, dim=None, keepdim=False) 函数将返回指定维度 dim 上最大值的索引。如果不指定 dim,则默认返回整个张量中最大值的索引。
  58. 例如,对于一个形状为 (batch_size, seq_length, vocab_size) 的张量,torch.argmax(outputs.logits, -1) 将返回在 vocab_size 维度上每个位置上的最大值对应的索引,即得分最高的词的索引。
  59. 这行代码的作用是将模型输出的 logits (对应每个词的得分)经过 torch.argmax 函数找到得分最高的词的索引,然后使用 tokenizer 对这些索引进行解码,将索引转换为对应的词,并通过 skip_special_tokens=True 参数去除特殊标记(如 [CLS], [SEP] 等)。最终得到的是模型生成的文本内容。
  60. '''

 4.模型保存

  1. #save model
  2. peft_model_id = f"{model_name_path}_{peft_config.peft_type}_{peft_config.peft.task_type}"
  3. model.save_pretrained(peft_model_id)

5.模型训练的其余部分无需更改,当模型训练完成后,保存高效微调的模型权重部分以供模型推理 

  1. #加载微调后的权重
  2. from peft import PeftModel, PeftConfig
  3. config = PeftConfig.from_pretrained(peft_model_id)
  4. ##加载基础模型
  5. model = AutoModelForCausalLM.from_pretrained(config.base_model_name_or_path)
  6. ##加载peft模型
  7. model = PeftModel.from_pretrained(model, peft_model_id)
  8. ##加载tokenizer
  9. tokenizer = AutoTokenizer.from_pretrained(config.base_model_name_or_path)
  10. tokennizer.pad_token = tokenizer.eos_token

6.加载微调后的权重文件,并进行推理 

  1. #利用微调后的模型进行推理
  2. ##tokenizer编码
  3. inputs = tokenizer(f'{text_column} : {dataset["test"][i]["Tweet text"]} Label : ', return_tensors="pt")
  4. ##模型推理
  5. outputs = model.generate(
  6. input_ids=inputs["input_ids"],
  7. attention_mask=inputs["attention_mask"],
  8. max_new_tokens=10,
  9. eos_token_id=3
  10. )
  11. ##tokenizer解码
  12. print(tokenizer.batch_decode(outputs.detach().cpu().numpy(), skip_special_tokens=True))

补充:

lora微调据我理解有两种实现方式,区别在于训练过程怎么实现,一种是自己手写,如上文所示,一种是利用SFTTrainer库,这种可以通过传入参数自动训练,下面给出一个参考链接(值得注意的是,通过数据集处理函数,要把inputs和labels一起作为输入传入,是指令微调的思想,下面的视频和代码都有体现):

如何使用lora微调llama模型,全网最简单上手的微调notebook_哔哩哔哩_bilibili

TRL SFTTrainer - llama2 在 Alpaca 数据集上进行细调 - 文本字段

Qlora其实就是多了个量化微调,由原来数据的fp16或者bf16变为8bit、4bit 

Llama2+QLora微调大模型-超详细教程(适合小白)_哔哩哔哩_bilibili

 

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/926433
推荐阅读
相关标签
  

闽ICP备14008679号