当前位置:   article > 正文

Pytorch模型加载和保存_model = vggnet() torch.save(

model = vggnet() torch.save(

一、模型的保存和加载

在模型的训练过程中,可能会因为各种原因停止,因此需要注意保存每一轮的epoch的模型(一般保存当前模型和最好模型)。

1.Pytorch保存和加载模型

1.1 官方推荐的方法

  1. #第一种:只存储模型中的参数,该方法速度快,占用空间少(官方推荐使用)
  2. model = VGGNet()
  3. torch.save(model.state_dict(), PATH) #存储model中的参数
  4. new_model = VGGNet() #建立新模型
  5. new_model.load_state_dict(torch.load(PATH)) #将model中的参数加载到new_model中
  6. #第二种:存储整个模型
  7. model = VGGNet()
  8. torch.save(model, PATH) #存储整个模型
  9. new_model = torch.load(PATH) #将整个model加载到new_model中
  10. #new_model 不再需要第一种方法中的建立新模型的步骤
  11. '''
  12. 关于上面表达式中PATH参数的说明:
  13. PATH参数是你保存文件的路径,并且需要指定保存文件的文件名,如:
  14. torch.save(model, '/home/user/save_model/checkpoint.pth')
  15. 即将该模型保存在/home/user/save_model路径下的checkpoint.pth文件中,保存的文件格式约定为.pth或.pt
  16. new_model = torch.load('/home/user/save_model/checkpoint.pth')
  17. 但是在pytorch1.6版本中,torch.save存储的文件格式采用了新的基于压缩文件的格式 .pth.tar
  18. torch.load依然保留了加载了旧格式.pth的能力
  19. '''

1.2 保存checkpoint(检查点)

保存的训练模型信息不仅包含模型的参数信息,还可以包含其他信息,如当前的迭代次数,优化器的参数等,以便用于后面恢复训练。

  1. #保存模型的状态,可以设置一些参数,后续可以使用
  2. state = {'epoch': epoch + 1,#保存的当前轮数
  3. 'state_dict': mymodel.state_dict(),#训练好的参数
  4. 'optimizer': optimizer.state_dict(),#优化器参数,为了后续的resume
  5. 'best_pred': best_pred#当前最好的精度
  6. ,....,...}
  7. #保存模型到checkpoint.pth.tar
  8. torch.save(state, ‘checkpoint.pth.tar’)
  9. #如果是best,则复制过去
  10. if is_best:
  11. shutil.copyfile(filename, directory + 'model_best.pth.tar')
  12. checkpoint = torch.load('model_best.pth.tar')
  13. model.load_state_dict(checkpoint['state_dict'])#模型参数
  14. optimizer.load_state_dict(checkpoint['optimizer'])#优化参数
  15. epoch = checkpoint['epoch']#epoch,可以用于更新学习率等
  16. #有了以上的东西,就可以继续重新训练了,也就不需要担心停止程序重新训练

在断点处继续训练

这个方法可以用来提高模型最终的准确率。

训练的时候经常遇到一种情况就是,可能设置了500个epoch,但是当模型跑到200个epoch之后,损失和精度就上不去了,或者出现明显的过拟合了,剩下的300个epoch,纯属浪费时间,这300个epoch对模型几乎没啥影响。但是其实在200个epoch时保存参数和学习率,然后重新加载模型,并将学习率调低,损失有可能会再降一些,精度有可能会得到提高。

原文链接:pytorch模型保存与加载总结_pytorch加载模型-CSDN博客

1.3 不同设备上的模型存储与加载

  1. #1、在CPU上存储模型,在GPU上加载模型
  2. #CPU存储
  3. torch.save(model.state_dict(), PATH)
  4. #GPU加载
  5. device = torch.device('cuda')
  6. model = Model()
  7. model.load_state_dict(torch.load(PATH, map_location='cuda:0')) #可以选择任意GPU设备
  8. model.to(device)
  9. ----------------------------------------------------------------------------------
  10. #2、在GPU上存储,CPU上加载
  11. #GPU存储
  12. torch.save(model.state_dict(), PATH)
  13. #CPU加载
  14. device = torch.device('cpu')
  15. model = Model()
  16. model.load_state_dict(torch.load(PATH, map_location=device))
  17. ----------------------------------------------------------------------------------
  18. #3、在GPU上存储,在GPU上加载
  19. #GPU存储
  20. torch.save(model.state_dict(), PATH)
  21. #GPU加载
  22. device = torch.device('cuda')
  23. model = Model()
  24. model.load_state_dict(torch.load(PATH))
  25. model.to(device)
  26. ----------------------------------------------------------------------------------
  27. #4、存储和加载使用过torch.nn.DataParallel的模型
  28. #(1)多卡训练,单卡加载部署
  29. '''
  30. 这种情况要防止参数保存的时候没有加module,那么保存的参数名称是module.conv1.weight,
  31. 而单卡的参数名称是conv1.weight
  32. ,这时就会报错,找不到相应的字典的错误。
  33. 此时可以通过手动的方式删减掉模型中前几位的名称,然后重新加载。
  34. 不懂代码可以先看一下第2部分内容模型参数存储内容解析
  35. '''
  36. model = torch.nn.DataParallel(model)
  37. #存储
  38. torch.save(model.module.state_dict(), PATH)
  39. #加载
  40. kwargs={'map_location':lambda storage, loc: storage.cuda(gpu_id)}
  41. def load_GPUS(model,model_path,kwargs):
  42. state_dict = torch.load(PATH, **kwargs)
  43. # create new OrderedDict that does not contain 'module.'
  44. from collections import OrderedDict
  45. new_state_dict = OrderedDict()
  46. for k, v in state_dict.items():
  47. name = k[7:] # remove 'module.'
  48. new_state_dict[name] = v
  49. # load params
  50. model.load_state_dict(new_state_dict)
  51. return model
  52. #(2)单卡训练,多卡加载部署
  53. '''
  54. 此时唯有记住一点,因为单卡训练参数是没有module的,而多卡加载的参数是有module的,
  55. 因此需要保证参数加载在模型分发之前。
  56. '''
  57. #存储
  58. torch.save(model.state_dict(), PATH)
  59. #加载
  60. model.load_state_dict(torch.load(PATH))
  61. model = torch.nn.DataParallel(model) #模型分发
  62. #(3)多卡训练,多卡加载部署
  63. '''
  64. 环境如果没有变化,则可以直接加载,如果环境有变化,则可以拆解成第1种情况,然后再分发模型。
  65. '''

当使用多块GPU进行训练的时候,保存的参数名称是module.conv1.weight,而单卡的参数名称是conv1.weight,这时你保存完模型后,再重新加载就会报错,找不到相应的字典。

解决办法一

保存的时候把参数名中的‘module.’去掉,就是将torch.save(model.state_dict(), 'fff.pth'))改为torch.save(model.module.state_dict(), 'fff.pth'))

  1. # 保存模型
  2. model = torch.nn.DataParallel(model)
  3. torch.save(model.module.state_dict(), 'fff.pth'))
  4. # 加载模型
  5. model.load_state_dict(torch.load(load_pth_name))

解决办法二

在加载的时候把参数名中的‘module.’去掉

  1. # 保存模型
  2. model = torch.nn.DataParallel(model)
  3. torch.save(model.state_dict(), 'fff.pth'))
  4. # 加载模型
  5. state_dict = torch.load(load_pth_name)
  6. from collections import OrderedDict
  7. new_state_dict = OrderedDict()
  8. for k, v in state_dict.items():
  9. name = k[7:] # remove `module.`
  10. new_state_dict[name] = v
  11. model.load_state_dict(new_state_dict)

1.4 模型改变后参数加载

当使用像resnet50、resnet101这样的网络时,通常可以从网上对应下载到这些模型的预训练参数文件,但是当前所使用的模型,可能需要在resnet50或resnet101网络上进行一些修改,比如增加一些结构,或者删除一些结构。所以只希望加载修改后的模型与原来的模型之间具有相同结构部分的参数。

  1. #第一种方法
  2. #假设下载到的原有模型参数文件为checkpoint.pth.tar
  3. model = OurModel()
  4. model_checkpoint = torch.load('checkpoint.pth.tar')
  5. pretrain_model_dict = model_checkpoint['state_dict']
  6. model_dict = model.state_dict()
  7. # 将两个模型参数进行比较,剔除不同的参数,保留相同的参数
  8. same_model_dict = {k : v for k, v in pretrain_model_dict if k in model_dict}
  9. # 更新相同的模型参数
  10. model_dict.update(same_model_dict)
  11. model.load_state_dict(model_dict)
  12. #第二种方法
  13. mymodelB = TheModelBClass(*args, **kwargs)
  14. # strict=False,设置为false,只保留键值相同的参数
  15. mymodelB.load_state_dict(model_zoo.load_url(model_urls['resnet18']), strict=False)
  16. # 加载我们真正需要的state_dict
  17. mymodelB.load_state_dict(mymodelB_dict)

1.5 模型参数存储的内容

model.state_dict()

model.state_dict()返回的是一个OrderedDict对象。OrderedDict是dict的子类,其最大的特征就是可以维护添加的key-value对的顺序。说白了,OrderedDict也是一个字典,但是这个字典中的key-value对是有顺序的。这个特性正好可以跟网络结构的层次对应起来。

model.state.dict()的输出可以表示为以下形式,这里将输出中的tensor值简化为TensorValue

  1. OrderedDict([('conv1.weight', TensorValue), ('conv1.bias', TensorValue),
  2. ('conv2.weight', TensorValue), ('conv2.bias', TensorValue)])

因此'conv1.weight','conv1.bias',...等都是该字典中的键,键的名称如conv1、conv2都是在定义网络的时候自己设定的名称,而.weight和.bias都是固定表达。而TensorValue中则是值,其保存的都是网络中的参数值。

因此,我们可以通过遍历model.state_dict()的方式,获得各层参数值,但值得注意的是,只有那些参数可以训练的层,这些层的参数会被保存到model.state_dict()中,如卷积层、线性层,没有参数的层则不会被保存。

  1. #遍历
  2. for k, v in model.state_dict().items():
  3. print('k = ', k, '; ', 'v.size = ', v.size()) #为了直观,输出参数的尺寸大小
  4. #输出
  5. k = conv1.weight ; v.size = torch.Size([3, 3, 3, 3])
  6. k = conv1.bias ; v.size = torch.Size([3])
  7. k = conv2.weight ; v.size = torch.Size([3, 3, 3, 3])
  8. k = conv2.bias ; v.size = torch.Size([3])

optimizer.state_dict()

不光模型有state_dict(),优化器也有该方法,它保存了优化器的状态以及被使用的超参数,使用方法如下:

  1. optimizer = torch.optim.SGD(net.parameters(), lr=0.1, momentum=0.9, )
  2. print(optimizer.state_dict())
  3. #输出
  4. {'state': {}, 'param_groups': [{'lr': 0.1, 'momentum': 0.9, 'dampening': 0,
  5. 'weight_decay': 0, 'nesterov': False, 'params': [0, 1, 2, 3]}]}

参考链接:pytorch如何保存模型? - 知乎

二、微调

用于特征提取的时候,要求特征提取部分参数不进行学习,而pytorch提供了requires_grad参数用于确定是否进去梯度计算,也即是否更新参数。以下以minist为例,用resnet18作特征提取:

  1. #加载预训练模型
  2. model = torchvision.models.resnet18(pretrained=True)
  3. #遍历每一个参数,将其设置为不更新参数,即不学习
  4. for param in model.parameters():
  5. param.requires_grad = False
  6. # 将全连接层改为mnist所需的10类,注意:这样更改后requires_grad默认为True
  7. model.fc = nn.Linear(512, 10)
  8. # 优化
  9. optimizer = optim.SGD(model.fc.parameters(), lr=1e-2, momentum=0.9)

用于全局精调时,我们一般对不同的层需要设置不同的学习率,预训练的层学习率小一点,其他层大一点。

  1. # 加载预训练模型
  2. model = torchvision.models.resnet18(pretrained=True)
  3. model.fc = nn.Linear(512, 10)
  4. # 参考:https://blog.csdn.net/u012759136/article/details/65634477
  5. ignored_params = list(map(id, model.fc.parameters()))
  6. base_params = filter(lambda p: id(p) not in ignored_params, model.parameters())
  7. # 对不同参数设置不同的学习率
  8. params_list = [{'params': base_params, 'lr': 0.001},]
  9. params_list.append({'params': model.fc.parameters(), 'lr': 0.01})
  10. optimizer = torch.optim.SGD(params_list,
  11. 0.001
  12. momentum=args.momentum,
  13. weight_decay=args.weight_decay)

原文链接:PyTorch模型加载/参数初始化/Finetune - 知乎

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/772746
推荐阅读
相关标签
  

闽ICP备14008679号