当前位置:   article > 正文

Pytorch~模型保存与迁移_pytorch迁移mmdetection

pytorch迁移mmdetection

还是基础啊

这里首先介绍了模型复用的几种典型场景;然后介绍了如何查看Pytorch模型中的相关参数信息;接着介绍了如何载入模型、如何进行追加训练以及进行模型的迁移学习等。 

一般来说,最常见的场景就是模型完成训练后的推断过程。一个网络模型在完成训练后通常都需要对新样本进行预测,此时就只需要构建模型的前向传播过程,然后载入已训练好的参数初始化网络即可。

第2个场景就是模型的再训练过程。一个模型在一批数据上训练完成之后需要将其保存到本地,并且可能过了一段时间后又收集到了一批新的数据,因此这个时候就需要将之前的模型载入进行在新数据上进行增量训练(或者是在整个数据上进行全量训练)。

第3个应用场景就是模型的迁移学习。这个时候就是将别人已经训练好的预模型拿过来,作为你自己网络模型参数的一部分进行初始化。例如:你自己在Bert模型的基础上加了几个全连接层来做分类任务,那么你就需要将原始BERT模型中的参数载入并以此来初始化你的网络中的Bert部分的权重参数。

在接下来的这篇文章中,笔者就以上述3个场景为例来介绍如何利用Pytorch框架来完成上述过程。

模型的保存与复用

在Pytorch中,我们可以通过torch.save()torch.load()来完成上述场景中的主要步骤。下面,笔者将以之前介绍的LeNet5网络模型为例来分别进行介绍。不过在这之前,我们先来看看Pytorch中模型参数的保存形式。 

查看网络模型参数

(1)查看参数

首先定义好LeNet5的网络模型结构,如下代码所示:

  1. class LeNet5(nn.Module):
  2.     def __init__(self, ):
  3.         super(LeNet5self).__init__()
  4.         self.conv = nn.Sequential(  # [n,1,28,28]
  5.             nn.Conv2d(165, padding=2),  # in_channels, out_channels, kernel_size
  6.             nn.ReLU(),  # [n,6,24,24]
  7.             nn.MaxPool2d(22),  # kernel_size, stride  [n,6,14,14]
  8.             nn.Conv2d(6165),  # [n,16,10,10]
  9.             nn.ReLU(),
  10.             nn.MaxPool2d(22))  # [n,16,5,5]
  11.         self.fc = nn.Sequential(
  12.             nn.Flatten(),
  13.             nn.Linear(16 * 5 * 5120),
  14.             nn.ReLU(),
  15.             nn.Linear(12084),
  16.             nn.ReLU(),
  17.             nn.Linear(8410))
  18.     def forward(self, img):
  19.         output = self.conv(img)
  20.         output = self.fc(output)
  21.         return output

在定义好LeNet5这个网络结构的类之后,只要我们完成了这个类的实例化操作,那么网络中对应的权重参数也都完成了初始化的工作,即有了一个初始值。同时,我们可以通过如下方式来访问:

  1. # Print model's state_dict
  2. print("Model's state_dict:")
  3. for param_tensor in model.state_dict():
  4.     print(param_tensor, "\t", model.state_dict()[param_tensor].size())

其输出的结果为:

  1. conv.0.weight   torch.Size([6155])
  2. conv.0.bias   torch.Size([6])
  3. conv.3.weight   torch.Size([16655])
  4. ....
  5. ....

可以发现,网络模型中的参数model.state_dict()其实是以字典的形式(实质上是collections模块中的OrderedDict)保存下来的:

  1. print(model.state_dict().keys())
  2. # odict_keys(['conv.0.weight', 'conv.0.bias', 'conv.3.weight', 
  3. 'conv.3.bias', 'fc.1.weight', 'fc.1.bias', 'fc.3.weight', 'fc.3.bias', 
  4. 'fc.5.weight', 'fc.5.bias'])

(2)自定义参数前缀

同时,这里值得注意的地方有两点:①参数名中的fcconv前缀是根据你在上面定义nn.Sequential()时的名字所确定的;②参数名中的数字表示每个Sequential()中网络层所在的位置。例如将网络结构定义成如下形式:

  1. class LeNet5(nn.Module):
  2.     def __init__(self, ):
  3.         super(LeNet5self).__init__()
  4.         self.moon = nn.Sequential(  # [n,1,28,28]
  5.             nn.Conv2d(165, padding=2),  # in_channels, out_channels, kernel_size
  6.             nn.ReLU(),  # [n,6,24,24]
  7.             nn.MaxPool2d(22),  # kernel_size, stride  [n,6,14,14]
  8.             nn.Conv2d(6165),  # [n,16,10,10]
  9.             nn.ReLU(),
  10.             nn.MaxPool2d(22),
  11.             nn.Flatten(),
  12.             nn.Linear(16 * 5 * 5120),
  13.             nn.ReLU(),
  14.             nn.Linear(12084),
  15.             nn.ReLU(),
  16.             nn.Linear(8410))

那么其参数名则为:

  1. print(model.state_dict().keys())
  2. odict_keys(['moon.0.weight', 'moon.0.bias', 'moon.3.weight',
  3.  'moon.3.bias', 'moon.7.weight', 'moon.7.bias', 'moon.9.weight', 
  4. 'moon.9.bias', 'moon.11.weight', 'moon.11.bias'])

理解了这一点对于后续我们去解析和载入一些预训练模型很有帮助。

除此之外,对于中的优化器等,其同样有对应的state_dict()方法来获取对于的参数,例如:

  1. optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
  2. print("Optimizer's state_dict:")
  3. for var_name in optimizer.state_dict():
  4.    print(var_name, "\t", optimizer.state_dict()[var_name])
  5.     
  6. #
  7. Optimizer's state_dict:
  8. state   {}
  9. param_groups   [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 
  10. 'weight_decay': 0, 'nesterov': False, 
  11. 'params': [140239245300504, 140239208339784, 140239245311360, 
  12. 140239245310856, 140239266942480, 140239266942552, 140239266942624, 
  13. 140239266942696, 140239266942912, 140239267041352]}]

在介绍完模型参数的查看方法后,就可以进入到模型复用阶段的内容介绍了。

载入模型进行推断

(1) 模型保存

在Pytorch中,对于模型的保存来说是非常简单的,通常来说通过如下两行代码便可以实现:

  1. model_save_path = os.path.join(model_save_dir, 'model.pt')
  2. torch.save(model.state_dict(), model_save_path)

在指定保存的模型名称时Pytorch官方建议的后缀为.pt或者.pth(当然也不是强制的)。最后,只需要在合适的地方加入第2行代码即可完成模型的保存。

同时,如果想要在训练过程中保存某个条件下的最优模型,那么应该通过如下方式:

  1. best_model_state = deepcopy(model.state_dict()) 
  2. torch.save(best_model_state, model_save_path)

而不是:

  1. best_model_state = model.state_dict() 
  2. torch.save(best_model_state, model_save_path)

因为后者best_model_state得到只是model.state_dict()的引用,它依旧会随着训练过程而发生改变。

(2)复用模型进行推断

在推断过程中,首先需要完成网络的初始化,然后再载入已有的模型参数来覆盖网络中的权重参数即可,示例代码如下:

  1. def inference(data_iter, device, model_save_dir='./MODEL'):   
  2.     model = LeNet5()  # 初始化现有模型的权重参数    
  3.     model.to(device)    
  4.     model_save_path = os.path.join(model_save_dir, 'model.pt')    
  5.     if os.path.exists(model_save_path):        
  6.         loaded_paras = torch.load(model_save_path)        
  7.     model.load_state_dict(loaded_paras)  # 用本地已有模型来重新初始化网络权重参数     
  8.     model.eval() # 注意不要忘记    
  9.     with torch.no_grad():        
  10.         acc_sum, n = 0.00        
  11.         for x, y in data_iter:            
  12.         x, y = x.to(device), y.to(device)            
  13.         logits = model(x)            
  14.         acc_sum += (logits.argmax(1) == y).float().sum().item()            
  15.         n += len(y)        
  16.         print("Accuracy in test data is :", acc_sum / n)

在上述代码中,4-7行便是用来载入本地模型参数,并用其覆盖网络模型中原有的参数。这样,便可以进行后续的推断工作:

Accuracy in test data is : 0.8851

 载入模型进行训练

在介绍完模型的保存与复用之后,对于网络的追加训练就很简单了。最简便的一种方式就是在训练过程中只保存网络权重,然后在后续进行追加训练时只载入网络权重参数初始化网络进行训练即可,示例如下(完整代码参见[2]):

  1.   def train(self):
  2.         #......
  3.         model_save_path = os.path.join(self.model_save_dir, 'model.pt')
  4.         if os.path.exists(model_save_path):
  5.             loaded_paras = torch.load(model_save_path)
  6.             self.model.load_state_dict(loaded_paras)
  7.             print("#### 成功载入已有模型,进行追加训练...")
  8.         optimizer = torch.optim.Adam(self.model.parameters(), lr=self.learning_rate)  # 定义优化器
  9.        #......
  10.         for epoch in range(self.epochs):
  11.             for i, (x, y) in enumerate(train_iter):
  12.                 x, y = x.to(device), y.to(device)
  13.                 logits = self.model(x)
  14.                 # ......
  15.             print("Epochs[{}/{}]--acc on test {:.4}".format(epoch, self.epochs,
  16.                                               self.evaluate(test_iter, self.model, device)))
  17.             torch.save(self.model.state_dict(), model_save_path)

这样,便完成了模型的追加训练:

  1. #### 成功载入已有模型,进行追加训练...
  2. Epochs[0/5]---batch[938/0]---acc 0.9062---loss 0.2926
  3. Epochs[0/5]---batch[938/100]---acc 0.9375---loss 0.1598
  4. ......

除此之外,你也可以在保存参数的时候,将优化器参数、损失值等一同保存下来,然后在恢复模型的时候连同其它参数一起恢复,示例如下:

  1. model_save_path = os.path.join(model_save_dir, 'model.pt')
  2. torch.save({
  3.             'epoch': epoch,
  4.             'model_state_dict': model.state_dict(),
  5.             'optimizer_state_dict': optimizer.state_dict(),
  6.             'loss': loss,
  7.             ...
  8.             }, model_save_path)

载入方式如下:

  1. checkpoint = torch.load(model_save_path)
  2. model.load_state_dict(checkpoint['model_state_dict'])
  3. optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
  4. epoch = checkpoint['epoch']
  5. loss = checkpoint['loss']

载入模型进行迁移

(1)定义新模型

到目前为止,对于前面两种应用场景的介绍就算完成了,可以发现总体上并不复杂。但是对于第3中场景的应用来说就会略微复杂一点。

假设现在有一个LeNet6网络模型,它是在LeNet5的基础最后多加了一个全连接层,其定义如下:

  1. class LeNet6(nn.Module):
  2.     def __init__(self, ):
  3.         super(LeNet6self).__init__()
  4.         self.conv = nn.Sequential(  # [n,1,28,28]
  5.             nn.Conv2d(165, padding=2),  # in_channels, out_channels, kernel_size
  6.             nn.ReLU(),  # [n,6,24,24]
  7.             nn.MaxPool2d(22),  # kernel_size, stride  [n,6,14,14]
  8.             nn.Conv2d(6165),  # [n,16,10,10]
  9.             nn.ReLU(),
  10.             nn.MaxPool2d(22))  # [n,16,5,5]
  11.         self.fc = nn.Sequential(
  12.             nn.Flatten(),
  13.             nn.Linear(16 * 5 * 5120),
  14.             nn.ReLU(),
  15.             nn.Linear(12084),
  16.             nn.ReLU(),
  17.             nn.Linear(8464), 
  18.             nn.ReLU(),
  19.             nn.Linear(6410) ) # 新加入的全连接层

接下来,我们需要将在LeNet5上训练得到的权重参数迁移到LeNet6网络中去。从上面LeNet6的定义可以发现,此时尽管只是多加了一个全连接层,但是倒数第2层参数的维度也发生了变换。因此,对于LeNet6来说只能复用LeNet5网络前面4层的权重参数。

(2)查看模型参数

在拿到一个模型参数后,首先我们可以将其载入,然查看相关参数的信息:

  1. model_save_path = os.path.join('./MODEL''model.pt')
  2. loaded_paras = torch.load(model_save_path)
  3. for param_tensor in loaded_paras:
  4.     print(param_tensor, "\t", loaded_paras[param_tensor].size())
  5. #---- 可复用部分
  6. conv.0.weight   torch.Size([6155])
  7. conv.0.bias   torch.Size([6])
  8. conv.3.weight   torch.Size([16655])
  9. conv.3.bias   torch.Size([16])
  10. fc.1.weight   torch.Size([120400])
  11. fc.1.bias   torch.Size([120])
  12. fc.3.weight   torch.Size([84120])
  13. fc.3.bias   torch.Size([84])
  14. #----- 不可复用部分
  15. fc.5.weight   torch.Size([1084])
  16. fc.5.bias   torch.Size([10])

同时,对于LeNet6网络的参数信息为:

  1. model = LeNet6()
  2. for param_tensor in model.state_dict():
  3.     print(param_tensor, "\t", model.state_dict()[param_tensor].size())
  4. #
  5. conv.0.weight   torch.Size([6155])
  6. conv.0.bias   torch.Size([6])
  7. conv.3.weight   torch.Size([16655])
  8. conv.3.bias   torch.Size([16])
  9. fc.1.weight   torch.Size([120400])
  10. fc.1.bias   torch.Size([120])
  11. fc.3.weight   torch.Size([84120])
  12. fc.3.bias   torch.Size([84])
  13. #------ 新加入部分
  14. fc.5.weight   torch.Size([6484])
  15. fc.5.bias   torch.Size([64])
  16. fc.7.weight   torch.Size([1064])
  17. fc.7.bias   torch.Size([10])

在理清楚了新旧模型的参数后,下面就可以将LeNet5中我们需要的参数给取出来,然后再换到LeNet6的网络中。

(3)模型迁移

虽然本地载入的模型参数(上面的loaded_paras)和模型初始化后的参数(上面的model.state_dict())都是一个字典的形式,但是我们并不能够直接改变model.state_dict()中的权重参数。这里需要先构造一个state_dict然后通过model.load_state_dict()方法来重新初始化网络中的参数。

同时,在这个过程中我们需要筛选掉本地模型中不可复用的部分,具体代码如下:

  1. def para_state_dict(model, model_save_dir):
  2.     state_dict = deepcopy(model.state_dict())
  3.     model_save_path = os.path.join(model_save_dir, 'model.pt')
  4.     if os.path.exists(model_save_path):
  5.         loaded_paras = torch.load(model_save_path)
  6.         for key in state_dict:  # 在新的网络模型中遍历对应参数
  7.             if key in loaded_paras and state_dict[key].size() == loaded_paras[key].size():
  8.                 print("成功初始化参数:"key)
  9.                 state_dict[key= loaded_paras[key]
  10.     return state_dict

在上述代码中,第2行的作用是先拷贝网络中(LeNet6)原有的参数;第6-9行则是用本地的模型参数(LeNet5)中可以复用的替换掉LeNet6中的对应部分,其中第7行就是判断可用的条件。同时需要注意的是在不同的情况下筛选的方式可能不一样,因此具体情况需要具体分析,但是整体逻辑是一样的。

最后,我们只需要在模型训练之前调用该函数,然后重新初始化LeNet6中的部分权重参数即可[2]:

  1. state_dict = para_state_dict(self.model, self.model_save_dir)
  2. self.model.load_state_dict(state_dict)

训练结果如下:

  1. 成功初始化参数: conv.0.weight
  2. 成功初始化参数: conv.0.bias
  3. 成功初始化参数: conv.3.weight
  4. 成功初始化参数: conv.3.bias
  5. 成功初始化参数: fc.1.weight
  6. 成功初始化参数: fc.1.bias
  7. 成功初始化参数: fc.3.weight
  8. 成功初始化参数: fc.3.bias
  9. #### 成功载入已有模型,进行追加训练...
  10. Epochs[0/5]---batch[938/0]---acc 0.1094---loss 2.512
  11. Epochs[0/5]---batch[938/100]---acc 0.9375---loss 0.2141
  12. Epochs[0/5]---batch[938/200]---acc 0.9219---loss 0.2729
  13. Epochs[0/5]---batch[938/300]---acc 0.8906---loss 0.2958
  14. ......
  15. Epochs[0/5]---batch[938/900]---acc 0.8906---loss 0.2828
  16. Epochs[0/5]--acc on test 0.8808

可以发现,在大约100个batch之后,模型的准确率就提升上来了。

总结

在本篇文章中,笔者首先介绍了模型复用的几种典型场景;然后介绍了如何查看Pytorch模型中的相关参数信息;接着介绍了如何载入模型、如何进行追加训练以及进行模型的迁移学习等。

引用

[1] SAVING AND LOADING MODELS https://pytorch.org/tutorials/beginner/saving_loading_models.html

[2] 示例代码 https://github.com/moon-hotel/DeepLearningWithMe

-------

Taobao 天皓智联  whaosoft aiot http://143ai.com 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/911705
推荐阅读
相关标签
  

闽ICP备14008679号