当前位置:   article > 正文

学习率预热(transformers.get_linear_schedule_with_warmaup)_get_linear_schedule_with_warmup

get_linear_schedule_with_warmup

学习率预热

  • 在预热期间,学习率从0线性增加到优化器中的初始lr。

  • 在预热阶段之后创建一个schedule,使其学习率从优化器中的初始lr线性降低到0

Parameters

  • optimizer (Optimizer) – 用于调度学习速率的优化器参数

  • num_warmup_steps (int) – 预热阶段的步骤数

  • num_training_steps (int) – 训练的总步骤数

  • last_epoch (int, optional, defaults to -1) – The index of the last epoch when resuming training.

Returns

  • torch.optim.lr_scheduler.LambdaLR with the appropriate schedule.
  1. # training steps 的数量: [number of batches] x [number of epochs].
  2. total_steps = len(train_dataloader) * epochs
  3. # 设计 learning rate scheduler
  4. scheduler = get_linear_schedule_with_warmup(optimizer, num_warmup_steps = 50,
  5. num_training_steps = total_steps)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/412305
推荐阅读
相关标签
  

闽ICP备14008679号