赞
踩
在预热期间,学习率从0线性增加到优化器中的初始lr。
在预热阶段之后创建一个schedule,使其学习率从优化器中的初始lr线性降低到0
Parameters
optimizer (Optimizer)
– 用于调度学习速率的优化器参数
num_warmup_steps (int)
– 预热阶段的步骤数
num_training_steps (int)
– 训练的总步骤数
last_epoch (int, optional, defaults to -1)
– The index of the last epoch when resuming training.
Returns
torch.optim.lr_scheduler.LambdaLR
with the appropriate schedule.- # training steps 的数量: [number of batches] x [number of epochs].
- total_steps = len(train_dataloader) * epochs
-
- # 设计 learning rate scheduler
- scheduler = get_linear_schedule_with_warmup(optimizer, num_warmup_steps = 50,
- num_training_steps = total_steps)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。