当前位置:   article > 正文

pytorch动态调整学习率torch.optim.lr_scheduler import MultiStepLR_from torch.optim.lr_scheduler import multisteplr

from torch.optim.lr_scheduler import multisteplr

from torch.optim.lr_scheduler import MultiStepLR

简单来说,就是分阶段调整学习率

  • 用法:
model = ANet(classes=5)     #加载模型
optimizer = optim.SGD(params = model.parameters(), lr=0.05)   #优化方法使用SGD

#在指定的epoch值,如[10,15,25,30]处对学习率进行衰减,lr = lr * gamma
scheduler = lr_scheduler.MultiStepLR(optimizer, milestones=[10,152530], gamma=0.1)
  • 1
  • 2
  • 3
  • 4
  • 5

下图更直观
在这里插入图片描述
参考链接:

https://blog.csdn.net/guzhao9901/article/details/116484887

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/328446
推荐阅读
相关标签
  

闽ICP备14008679号