赞
踩
**需要注意的是,lr_scheduler是每个epoch更新一次。**参考https://zhuanlan.zhihu.com/p/380795956
PyTorch中的lr_scheduler(learning rate scheduler)用于动态地调整学习率。随着训练的进行,学习率可能需要逐渐降低,以便在训练后期更加稳定地收敛。lr_scheduler提供了一种方便的方法来实现这个目标。
下面是一个例子,说明如何使用lr_scheduler来调整学习率。在这个例子中,我们使用StepLR调度程序,该调度程序在每个step_size个epoch之后将学习率降低为原来的gamma倍。这个例子使用了一个简单的卷积神经网络模型来训练MNIST数据集,并使用SGD优化器来更新模型参数。
import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms # 定义简单的卷积神经网络模型 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5) self.conv2 = nn.Conv2d(10, 20, kernel_size=5) self.dropout = nn.Dropout2d() self.fc1 = nn.Linear(320, 50) self.fc2 = nn.Linear(50, 10) def forward(self, x): x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2)) x = nn.functional.relu(nn.functional.max_pool2d(self.dropout(self.conv2(x)), 2)) x = x.view(-1, 320) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return nn.functional.log_softmax(x, dim=1) # 加载MNIST数据集 train_loader = torch.utils.data.DataLoader( datasets.MNIST('data', train=True, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])), batch_size=64, shuffle=True) # 创建模型和优化器 model = Net() optimizer = optim.SGD(model.parameters(), lr=0.1, momentum=0.9) # 创建StepLR调度程序 scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1) # 训练模型 for epoch in range(10): for batch_idx, (data, target) in enumerate(train_loader): optimizer.zero_grad() output = model(data) loss = nn.functional.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % 100 == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) scheduler.step()
在这个例子中,我们使用StepLR调度程序,并将step_size设置为5,将gamma设置为0.1。这意味着在每5个epoch之后,学习率将乘以0.1。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。