赞
踩
PyTorch基础篇:
PyTorch
在torch.nn
模块为我们提供了许多常用的损失函数,比如:MSELoss1
,L1Loss
,BCELoss
… 但是随着深度学习的发展,出现了越来越多的非官方提供的Loss
,比如DiceLoss
,HuberLoss
,SobolevLoss
… 这些Loss Function
专门针对一些非通用的模型,PyTorch
不能将他们全部添加到库中去,因此这些损失函数的实现则需要我们通过自定义损失函数来实现。另外,在科学研究中,我们往往会提出全新的损失函数来提升模型的表现,这时我们既无法使用PyTorch
自带的损失函数,也没有相关的博客供参考,此时自己实现损失函数就显得更为重要了。
事实上,损失函数仅仅是一个函数而已,因此我们可以通过直接以函数定义的方式定义一个自己的函数,如下所示:
def my_loss(output, target):
loss = torch.mean((output - target)**2)
return loss
虽然以函数定义的方式很简单,但是以类方式定义更加常用,在以类方式定义损失函数时,我们如果看每一个损失函数的继承关系我们就可以发现Loss
函数部分继承自_loss
, 部分继承自_WeightedLoss
, 而_WeightedLoss
继承自_loss
, _loss
继承自 nn.Module
。我们可以将其当作神经网络的一层来对待,同样地,我们的损失函数类就需要继承自nn.Module
类。以处理不平衡数据集的Focal Loss为例,
#PyTorch ALPHA = 0.8 GAMMA = 2 class FocalLoss(nn.Module): def __init__(self, weight=None, size_average=True): super(FocalLoss, self).__init__() def forward(self, inputs, targets, alpha=ALPHA, gamma=GAMMA, smooth=1): #comment out if your model contains a sigmoid or equivalent activation layer inputs = F.sigmoid(inputs) #flatten label and prediction tensors inputs = inputs.view(-1) targets = targets.view(-1) #first compute binary cross-entropy BCE = F.binary_cross_entropy(inputs, targets, reduction='mean') BCE_EXP = torch.exp(-BCE) focal_loss = alpha * (1-BCE_EXP)**gamma * BCE return focal_loss
其他实现可参考如下网址
Dice Loss、BCE-Dice Loss、Jaccard、Focal Loss、Tversky Loss、Focal Tversky Loss、Lovasz Hinge Loss、Combo Loss、Usage Tips的实现
注:在自定义损失函数时,涉及到数学运算时,我们最好全程使用PyTorch
提供的张量计算接口,这样就不需要我们实现自动求导功能并且我们可以直接调用cuda
,使用numpy
或者scipy
的数学运算时,操作会有些麻烦。
学习率的选择是深度学习中一个困扰人们许久的问题,学习速率设置过小,会极大降低收敛速度,增加训练时间;学习率太大,可能导致参数在最优解两侧来回振荡。但是当我们选定了一个合适的学习率后,经过许多轮的训练后,可能会出现准确率震荡或loss
不再下降等情况,说明当前学习率已不能满足模型调优的需求。此时我们就可以通过一个适当的学习率衰减策略来改善这种现象,提高我们的精度。这种设置方式在PyTorch
中被称为scheduler
。
PyTorch
的六种学习率调整策略都继承于class _LRScheduler(object)
这个基类,所以我们首先介绍这个基类
class _LRScheduler(object):
def __init__(self, optimizer, last_epoch=-1):
...
def get_lr(self):
...
def step(self):
...
主要属性:
optimizer
:关联的优化器last_epoch
:记录epoch数base_lrs
:记录初始学习率主要方法:
get_lr()
:虚函数,计算下一个epoch
的学习率step()
:更新下一个epoch
的学习率lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)
功能:等间隔调整学习率
主要参数:
step_size
:调整间隔数gamma
:调整系数lr = lr * gamma
import torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 weights = torch.randn((1), requires_grad=True) target = torch.zeros((1)) optimizer = optim.SGD([weights], lr=LR, momentum=0.9) # 设置学习率下降策略 scheduler_lr = optim.lr_scheduler.StepLR(optimizer, step_size=50, gamma=0.1) lr_list, epoch_list = list(), list() for epoch in range(max_epoch): # 获取当前lr,新版本用 get_last_lr()函数,旧版本用get_lr()函数,具体看UserWarning lr_list.append(scheduler_lr.get_lr()) epoch_list.append(epoch) for i in range(iteration): loss = torch.pow((weights - target), 2) loss.backward() optimizer.step() optimizer.zero_grad() scheduler_lr.step() plt.plot(epoch_list, lr_list, label="Step LR Scheduler") plt.xlabel("Epoch") plt.ylabel("Learning rate") plt.legend() plt.show()
lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
功能:按给定间隔调整学习率
主要参数:
milestones
:设定调整时刻数gamma
:调整系数lr = lr * gamma
import torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 weights = torch.randn((1), requires_grad=True) target = torch.zeros((1)) optimizer = optim.SGD([weights], lr=LR, momentum=0.9) # 设定调整时刻数 milestones = [50, 125, 160] # 设置学习率下降策略 scheduler_lr = optim.lr_scheduler.MultiStepLR(optimizer, milestones=milestones, gamma=0.1) lr_list, epoch_list = list(), list() for epoch in range(max_epoch): lr_list.append(scheduler_lr.get_lr()) epoch_list.append(epoch) for i in range(iteration): loss = torch.pow((weights - target), 2) loss.backward() optimizer.step() optimizer.zero_grad() scheduler_lr.step() plt.plot(epoch_list, lr_list, label="Multi Step LR Scheduler\nmilestones:{}".format(milestones)) plt.xlabel("Epoch") plt.ylabel("Learning rate") plt.legend() plt.show()
lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1)
功能:按指数衰减调整学习率
主要参数:
• gamma
:指数的底
调整方式:
l
r
=
l
r
∗
g
a
m
m
a
e
p
o
c
h
lr = lr * gamma^{epoch}
lr=lr∗gammaepoch
import torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 weights = torch.randn((1), requires_grad=True) target = torch.zeros((1)) optimizer = optim.SGD([weights], lr=LR, momentum=0.9) gamma = 0.95 scheduler_lr = optim.lr_scheduler.ExponentialLR(optimizer, gamma=gamma) lr_list, epoch_list = list(), list() for epoch in range(max_epoch): lr_list.append(scheduler_lr.get_lr()) epoch_list.append(epoch) for i in range(iteration): loss = torch.pow((weights - target), 2) loss.backward() optimizer.step() optimizer.zero_grad() scheduler_lr.step() plt.plot(epoch_list, lr_list, label="Exponential LR Scheduler\ngamma:{}".format(gamma)) plt.xlabel("Epoch") plt.ylabel("Learning rate") plt.legend() plt.show()
lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)
功能:余弦周期调整学习率
主要参数:
T_max
:下降周期eta_min
:学习率下限调整方式为:
import torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 weights = torch.randn((1), requires_grad=True) target = torch.zeros((1)) optimizer = optim.SGD([weights], lr=LR, momentum=0.9) t_max = 50 scheduler_lr = optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=t_max, eta_min=0.) lr_list, epoch_list = list(), list() for epoch in range(max_epoch): lr_list.append(scheduler_lr.get_lr()) epoch_list.append(epoch) for i in range(iteration): loss = torch.pow((weights - target), 2) loss.backward() optimizer.step() optimizer.zero_grad() scheduler_lr.step() plt.plot(epoch_list, lr_list, label="CosineAnnealingLR Scheduler\nT_max:{}".format(t_max)) plt.xlabel("Epoch") plt.ylabel("Learning rate") plt.legend() plt.show()
lr_scheduler.ReduceLROnPlateau(
optimizer, mode='min', factor=0.1,
patience=10, verbose=False, threshold=0.0001,
threshold_mode='rel', cooldown=0, min_lr=0,
eps=1e-08)
功能:监控指标,当监控指标不再变化则调整,监控指标一般为loss
主要参数:
mode
:min/max 两种模式factor
:调整系数patience
:“耐心 ”,接受几次不变化cooldown
:“冷却时间”,停止监控一段时间verbose
:是否打印日志min_lr
:学习率下限eps
:学习率衰减最小值import torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 weights = torch.randn((1), requires_grad=True) target = torch.zeros((1)) optimizer = optim.SGD([weights], lr=LR, momentum=0.9) loss_value = 0.5 accuray = 0.9 factor = 0.1 mode = "min" patience = 10 cooldown = 10 min_lr = 1e-4 verbose = True scheduler_lr = optim.lr_scheduler.ReduceLROnPlateau(optimizer, factor=factor, mode=mode, patience=patience, cooldown=cooldown, min_lr=min_lr, verbose=verbose) for epoch in range(max_epoch): for i in range(iteration): # train(...) optimizer.step() optimizer.zero_grad() scheduler_lr.step(loss_value)
Epoch 12: reducing learning rate of group 0 to 1.0000e-02.
Epoch 33: reducing learning rate of group 0 to 1.0000e-03.
Epoch 54: reducing learning rate of group 0 to 1.0000e-04.
lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)
功能:自定义调整策略,可以对不同的参数组设置不同的学习率调整方法
主要参数:
lr_lambda
:function or listimport torch import torch.optim as optim import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) LR = 0.1 iteration = 10 max_epoch = 200 lr_init = 0.1 weights_1 = torch.randn((6, 3, 5, 5)) weights_2 = torch.ones((5, 5)) optimizer = optim.SGD([ {'params': [weights_1]}, {'params': [weights_2]}], lr=lr_init) lambda1 = lambda epoch: 0.1 ** (epoch // 20) lambda2 = lambda epoch: 0.95 ** epoch scheduler = torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda = [lambda1, lambda2]) lr_list, epoch_list = list(), list() for epoch in range(max_epoch): for i in range(iteration): # train(...) optimizer.step() optimizer.zero_grad() scheduler.step() lr_list.append(scheduler.get_lr()) epoch_list.append(epoch) if epoch % 20==0 : print('epoch:{:5d}, lr:{}'.format(epoch, scheduler.get_lr())) plt.plot(epoch_list, [i[0] for i in lr_list], label="lambda 1") plt.plot(epoch_list, [i[1] for i in lr_list], label="lambda 2") plt.xlabel("Epoch") plt.ylabel("Learning Rate") plt.title("LambdaLR") plt.legend() plt.show()
epoch: 0, lr:[0.1, 0.095]
epoch: 20, lr:[0.010000000000000002, 0.03405616262881148]
epoch: 40, lr:[0.0010000000000000002, 0.012208654873684797]
epoch: 60, lr:[0.00010000000000000003, 0.004376630903760435]
epoch: 80, lr:[1.0000000000000003e-05, 0.00156896056657629]
epoch: 100, lr:[1.0000000000000004e-06, 0.0005624502759317298]
epoch: 120, lr:[1.0000000000000005e-07, 0.00020163050597632508]
epoch: 140, lr:[1.0000000000000004e-08, 7.228169792062392e-05]
epoch: 160, lr:[1.0000000000000005e-09, 2.5911971152330445e-05]
epoch: 180, lr:[1.0000000000000006e-10, 9.28907687996671e-06]
注:我们在使用官方给出的torch.optim.lr_scheduler
时,需要将scheduler.step()
放在optimizer.step()
后面进行使用。
Step
、MultiStep
、Exponential
和 CosineAnnealing
ReduceLROnPleateau
Lambda
虽然PyTorch
官方给我们提供了许多的API
,但是在实验中也有可能碰到需要我们自己定义学习率调整策略的情况,而我们的方法是自定义函数adjust_learning_rate
来改变param_group
中lr
的值,在下面的叙述中会给出一个简单的实现。
假设我们现在正在做实验,需要学习率每30轮下降为原来的1/10,假设已有的官方API
中没有符合我们需求的,那就需要自定义函数来实现学习率的改变。
def adjust_learning_rate(optimizer, epoch):
lr = args.lr * (0.1 ** (epoch // 30))
for param_group in optimizer.param_groups:
param_group['lr'] = lr
有了adjust_learning_rate
函数的定义,在训练的过程就可以调用我们的函数来实现学习率的动态变化。
def adjust_learning_rate(optimizer,...):
...
optimizer = torch.optim.SGD(model.parameters(),lr = args.lr,momentum = 0.9)
for epoch in range(10):
train(...)
validate(...)
adjust_learning_rate(optimizer,epoch)
ImageNet
数据集)上预训练一个神经网络模型,即源模型。 这里我们以torchvision
中的常见模型为例,列出了如何在图像分类任务中使用PyTorch
提供的常见模型结构和参数。对于其他任务和网络结构,使用方式是类似的:
实例化网络
import torchvision.models as models resnet18 = models.resnet18() # resnet18 = models.resnet18(pretrained=False) 等价于与上面的表达式 alexnet = models.alexnet() vgg16 = models.vgg16() squeezenet = models.squeezenet1_0() densenet = models.densenet161() inception = models.inception_v3() googlenet = models.googlenet() shufflenet = models.shufflenet_v2_x1_0() mobilenet_v2 = models.mobilenet_v2() mobilenet_v3_large = models.mobilenet_v3_large() mobilenet_v3_small = models.mobilenet_v3_small() resnext50_32x4d = models.resnext50_32x4d() wide_resnet50_2 = models.wide_resnet50_2() mnasnet = models.mnasnet1_0()
传递pretrained
参数
通过True
或者False
来决定是否使用预训练好的权重,在默认状态下pretrained = False
,意味着我们不使用预训练得到的权重,当pretrained = True
,意味着我们将使用在一些数据集上预训练得到的权重。
import torchvision.models as models
resnet18 = models.resnet18(pretrained=True)
alexnet = models.alexnet(pretrained=True)
squeezenet = models.squeezenet1_0(pretrained=True)
vgg16 = models.vgg16(pretrained=True)
densenet = models.densenet161(pretrained=True)
inception = models.inception_v3(pretrained=True)
googlenet = models.googlenet(pretrained=True)
shufflenet = models.shufflenet_v2_x1_0(pretrained=True)
mobilenet_v2 = models.mobilenet_v2(pretrained=True)
mobilenet_v3_large = models.mobilenet_v3_large(pretrained=True)
mobilenet_v3_small = models.mobilenet_v3_small(pretrained=True)
resnext50_32x4d = models.resnext50_32x4d(pretrained=True)
wide_resnet50_2 = models.wide_resnet50_2(pretrained=True)
mnasnet = models.mnasnet1_0(pretrained=True)
注意事项:
通常PyTorch
模型的扩展为.pt
或.pth
,程序运行时会首先检查默认路径中是否有已经下载的模型权重,一旦权重被下载,下次加载就不需要下载了。
一般情况下预训练模型的下载会比较慢,我们可以直接通过迅雷或者其他方式去 这里 查看自己的模型里面model_urls
,然后手动下载,预训练模型的权重在Linux
和Mac
的默认下载路径是用户根目录下的.cache
文件夹。在Windows
下就是C:\Users\<username>\.cache\torch\hub\checkpoint
。我们可以通过使用 torch.utils.model_zoo.load_url()
设置权重的下载地址。
如果觉得麻烦,还可以将自己的权重下载下来放到同文件夹下,然后再将参数加载网络。
self.model = models.resnet50(pretrained=False)
self.model.load_state_dict(torch.load('./model/resnet50-19c8e357.pth'))
如果中途强行停止下载的话,一定要去对应路径下将权重文件删除干净,要不然可能会报错。
在默认情况下,参数的属性.requires_grad = True
,如果我们从头开始训练或微调不需要注意这里。但如果我们正在提取特征并且只想为新初始化的层计算梯度,其他参数不进行改变。那我们就需要通过设置requires_grad = False
来冻结部分层。在PyTorch
官方中提供了这样一个例程。
def set_parameter_requires_grad(model, feature_extracting):
if feature_extracting:
for param in model.parameters():
param.requires_grad = False
在下面我们仍旧使用resnet18
为例的将1000
类改为4
类,但是仅改变最后一层的模型参数,不改变特征提取的模型参数;注意我们先冻结模型参数的梯度,再对模型输出部分的全连接层进行修改,这样修改后的全连接层的参数就是可计算梯度的。
import torchvision.models as models
# 冻结参数的梯度
feature_extract = True
model = models.resnet18(pretrained=True)
set_parameter_requires_grad(model, feature_extract)
# 修改模型
num_ftrs = model.fc.in_features
model.fc = nn.Linear(in_features=num_ftrs, out_features=4, bias=True)
之后在训练过程中,model
仍会进行梯度回传,但是参数更新则只会发生在fc
层。通过设定参数的requires_grad
属性,我们完成了指定训练模型的特定层的目标,这对实现模型微调非常重要。
模型微调训练trick:
固定预训练的参数(requires_grad =False
or lr=0
)
# 冻结卷积层
flag_m1 = 0
# flag_m1 = 1
if flag_m1:
for param in resnet18_ft.parameters():
param.requires_grad = False
在非常小的数据量上,我们认为卷积核参数不能在更新了,因为数据量过小,如果继续更新,容易导致过拟合。
将Features Extractor
设置较小学习率,在分类器中的学习率比较大(params_group
),优化器可以对不同的参数组设置不同的超参数,这里,我们就可以在不同部分设置不同的学习率
# conv 小学习率
flag = 0
# flag = 1
if flag:
fc_params_id = list(map(id, resnet18_ft.fc.parameters())) # 返回的是parameters的 内存地址
base_params = filter(lambda p: id(p) not in fc_params_id, resnet18_ft.parameters())
# 优化器设置不同的参数组,优化器中的元素是一个list,list中的每一个元素是字典
optimizer = optim.SGD([
{'params': base_params, 'lr': LR*0.1}, # 0
{'params': resnet18_ft.fc.parameters(), 'lr': LR}], momentum=0.9)
GPU
的性能主要分为两部分:算力和显存,前者决定了显卡计算的速度,后者则决定了显卡可以同时放入多少数据用于计算。在可以使用的显存数量一定的情况下,每次训练能够加载的数据更多(也就是batch size
更大),则也可以提高训练效率。另外,有时候数据本身也比较大(比如3D
图像、视频等),显存较小的情况下可能甚至batch size
为1的情况都无法实现。因此,合理使用显存也就显得十分重要。
我们观察PyTorch
默认的浮点数存储方式用的是torch.float32
,小数点后位数更多固然能保证数据的精确性,但绝大多数场景其实并不需要这么精确,只保留一半的信息也不会影响结果,也就是使用torch.float16
格式。由于数位减了一半,因此被称为“半精度”,具体如下图:
显然半精度能够减少显存占用,使得显卡可以同时加载更多数据进行计算。
在PyTorch
中使用autocast
配置半精度训练,同时需要在下面三处加以设置:
import autocast
from torch.cuda.amp import autocast
模型设置:
在模型定义中,使用python
的装饰器方法,用autocast
装饰模型中的forward
函数。
@autocast()
def forward(self, x):
...
return x
训练过程:
在训练过程中,只需在将数据输入模型及其之后的部分放入“with autocast():
“即可:
for x in train_loader:
x = x.cuda()
with autocast():
output = model(x)
...
注意:半精度训练主要适用于数据本身的size
比较大(比如说3D
图像、视频等)。当数据本身的size
并不大时(比如手写数字MNIST
数据集的图片尺寸只有28*28
),使用半精度训练则可能不会带来显著的提升。
在深度学习中时,超参数的修改和保存是非常重要的一步,尤其是当我们在服务器上跑我们的模型时,如何更方便的修改超参数是我们需要考虑的一个问题。这时候,要是有一个库或者函数可以解析我们输入的命令行参数再传入模型的超参数中该多好。到底有没有这样的一种方法呢?答案是肯定的,这个就是 Python
标准库的一部分:Argparse
。
argsparse
是python
的命令行解析的标准模块,内置于python
,不需要安装。这个库可以让我们直接在命令行中就可以向程序中传入参数。我们可以使用python file.py
来运行python
文件。而argparse
的作用就是将命令行传入的其他参数进行解析、保存和使用。在使用argparse
后,我们在命令行输入的参数就可以以这种形式python file.py --lr 1e-4 --batch_size 32
来完成对常见超参数的设置。
我们可以将argparse
的使用归纳为以下三个步骤。
ArgumentParser()
对象add_argument()
方法添加参数parse_args()
解析参数import argparse # 创建ArgumentParser()对象 parser = argparse.ArgumentParser() # 添加参数 parser.add_argument('-o', '--output', action='store_true', help="shows output") # action = `store_true` 会将output参数记录为True # type 规定了参数的格式 # default 规定了默认值 parser.add_argument('--lr', type=float, default=3e-5, help='select the learning rate, default=1e-3') parser.add_argument('--batch_size', type=int, required=True, help='input batch size') # 使用parse_args()解析函数 args = parser.parse_args() if args.output: print("This is some output") print(f"learning rate:{args.lr} ")
我们在命令行使用python demo.py --lr 3e-4 --batch_size 32
,就可以看到以下的输出:
This is some output
learning rate: 3e-4
argparse
的参数主要可以分为可选参数和必选参数。可选参数就跟我们的lr
参数相类似,未输入的情况下会设置为默认值。必选参数就跟我们的batch_size
参数相类似,当我们给参数设置required =True
后,我们就必须传入该参数,否则就会报错。看到我们的输入格式后,我们可能会有这样一个疑问,我输入参数的时候不使用–可以吗?答案是肯定的,不过我们需要在设置上做出一些改变。
import argparse
# 位置参数
parser = argparse.ArgumentParser()
parser.add_argument('name')
parser.add_argument('age')
args = parser.parse_args()
print(f'{args.name} is {args.age} years old')
当我们不使用--
后,将会严格按照参数位置进行解析。
$ positional_arg.py Peter 23
Peter is 23 years old
每个人都有着不同的超参数管理方式,在这里我将分享我使用argparse
管理超参数的方式,希望可以对大家有一些借鉴意义。通常情况下,为了使代码更加简洁和模块化,我一般会将有关超参数的操作写在config.py
,然后在train.py
或者其他文件导入就可以。具体的config.py
可以参考如下内容。
import argparse def get_options(parser=argparse.ArgumentParser()): parser.add_argument('--workers', type=int, default=0, help='number of data loading workers, you had better put it ' '4 times of your gpu') parser.add_argument('--batch_size', type=int, default=4, help='input batch size, default=64') parser.add_argument('--niter', type=int, default=10, help='number of epochs to train for, default=10') parser.add_argument('--lr', type=float, default=3e-5, help='select the learning rate, default=1e-3') parser.add_argument('--seed', type=int, default=118, help="random seed") parser.add_argument('--cuda', action='store_true', default=True, help='enables cuda') parser.add_argument('--checkpoint_path',type=str,default='', help='Path to load a previous trained model if not empty (default empty)') parser.add_argument('--output',action='store_true',default=True,help="shows output") opt = parser.parse_args() if opt.output: print(f'num_workers: {opt.workers}') print(f'batch_size: {opt.batch_size}') print(f'epochs (niters) : {opt.niter}') print(f'learning rate : {opt.lr}') print(f'manual_seed: {opt.seed}') print(f'cuda enable: {opt.cuda}') print(f'checkpoint_path: {opt.checkpoint_path}') return opt if __name__ == '__main__': opt = get_options()
随后在train.py
等其他文件,我们就可以使用下面的这样的结构来调用参数。
# 导入必要库 ... import config opt = config.get_options() manual_seed = opt.seed num_workers = opt.workers batch_size = opt.batch_size lr = opt.lr niters = opt.niters checkpoint_path = opt.checkpoint_path # 随机数的设置,保证复现结果 def set_seed(seed): torch.manual_seed(seed) torch.cuda.manual_seed_all(seed) random.seed(seed) np.random.seed(seed) torch.backends.cudnn.benchmark = False torch.backends.cudnn.deterministic = True ... if __name__ == '__main__': set_seed(manual_seed) for epoch in range(niters): train(model,lr,batch_size,num_workers,checkpoint_path) val(model,lr,batch_size,num_workers,checkpoint_path)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。