当前位置:   article > 正文

AdamW_adamw weight decay 大小

adamw weight decay 大小

A d a m W AdamW AdamW

一 基于Torch实现

optimizer = torch.optim.AdamW(model.parameters(),
                  lr=1e-4, weight_decay=1e-3)
  • 1
  • 2
optimizer.zero_grad()
# loss.backward()  # 反向传播
optimizer.step()
  • 1
  • 2
  • 3

optimizer = torch.optim.AdamW(model.parameters(),
                  lr=1e-4, weight_decay=1e-3)
  • 1
  • 2
lr_step = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, factor=0.5, patience=5)
lr_step.step(val_dice)
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/946056
推荐阅读
  

闽ICP备14008679号