当前位置:   article > 正文

《深度学习之pytorch实战计算机视觉》第10章 循环神经网络(代码可跑通)_for循环epoch

for循环epoch

上一章《深度学习之pytorch实战计算机视觉》第9章 多模型融合(代码可跑通)介绍了多模型融合循环神经网络Recurrent Neural Network,简称RNN)是深度学习中重要的内容和我们之前使用的卷积神经网络有着同等重要的地位。循环神经网络主要被用于处理序列(Sequences)相关的问题,比如在自然语言领域(NLP)应用循环神经网络的情况就较多;当然,也可以用于解决分类问题,虽然在图片特征的提取上没有卷积神经网络那样强大,但是本章仍然会使用循环神经网络来解决图片分类的问题,并主要讲解循环神经网络的工作机制和原理

【说明:本章使用的torch版本>=1.6.0】

10.1 循环神经网络入门

卷积神经网络有几个特点

  • ①对于己搭建好的卷积神经网络模型,它的输入数据的维度是固定的,比如在处理图片分类问题时输入的图片大小是固定的
  • ②卷积神经网络模型最后输出的数据的维度也是固定的,比如在图片分类问题中得到模型的输出结果数
  • ③卷积神经网络模型的层次结构也是固定不变的

循环神经网络与之不同,因为在循环神经网络中循环单元可以随意控制输入数据及输出数据的数量,具有非常大灵活性。如图10-1就是这两种模式之间的简单对比

在图10-1共绘制了4种类型的网络结构,分别是一对一、一对多和两种多对一。可以将一对一网络结构看作一个简单的卷积神经网络模型,输入和输出都是固定维度。在一对多的网络结构中引入了循环单元,通过一个输入得到数量不等的输出。多对多的网络结构同样是循环模式,通过数量不等的输入得到数量不等的输出。

下面我们进一步对循环神经网络进行了解,如下图所示是循环神经网络的网络简化模型:

下图是展开形式:

H0是最初输入的隐藏层,一般情况下使用零初始化。 下图展示了RNN所代表的循环层内部的运算细节:

W表示权重参数,计算公式如下:

使用了偏置b的计算公式如下:

得到隐藏层H之后,进一步计算输出结果,公式如下:

虽然循环神经网络已经能够很好地对输入的序列数据进行处理,但它有一个弊端:不能进行长期记忆,影响就是如果近期输入的数据发生了变化,则会对当前输出结果产生重大影响。为了避免这种情况的出现,研究者开发了 LSTM ( Long Short Term Memory)类型的循环神网络模型。下面使用循环神经网络解决一个计算机视觉问题,这就是之前的手写数字识别问题

10.2 PyTorch之循环神经网络实战

先导包和载入数据,和第6章(《深度学习之pytorch实战计算机视觉》第6章 PyTorch基础)很多代码相似,代码如下:

  1. import torch
  2. import torchvision
  3. from torchvision import datasets, transforms
  4. from torch.autograd import Variable
  5. import matplotlib.pyplot as plt
  6. #和第6章很多代码相似
  7. # 数据预处理
  8. # transform = transforms.Compose([transforms.ToTensor(),
  9. # transforms.Normalize(mean = [0.5,0.5,0.5],std =[0.5,0.5,0.5])])
  10. #一定要做下面的修改,不然输入维度不对!
  11. transform = transforms.Compose([transforms.ToTensor(),
  12. transforms.Normalize(mean = [0.5],std = [0.5])])
  13. # 读取数据,之前下载过,现在直接读取
  14. dataset_train = datasets.MNIST(root = './data/',
  15. transform = transform,
  16. train = True,
  17. download = False)
  18. dataset_test = datasets.MNIST(root = './data/',
  19. transform = transform,
  20. train = False)
  21. # 加载数据
  22. train_loader = torch.utils.data.DataLoader(dataset = dataset_train,
  23. batch_size = 64,
  24. shuffle = True)
  25. test_loader = torch.utils.data.DataLoader(dataset = dataset_test,
  26. batch_size = 64,
  27. shuffle = True)
  28. images,labels = next(iter(train_loader)) #获取一个批次的图片和标签
  29. img = torchvision.utils.make_grid(images) #将一个批次的图片构造成网格模式
  30. img = img.numpy().transpose(1,2,0)
  31. std = [0.5,0.5,0.5]
  32. mean = [0.5,0.5,0.5]
  33. img = img*std + mean
  34. print([labels[i] for i in range(64)]) #打印这个批次数据的全部标签
  35. plt.imshow(img) #显示图片
  36. plt.show()

输出如下:

[tensor(1), tensor(9), tensor(1), tensor(5), tensor(8), tensor(6), tensor(8), tensor(3), tensor(3), tensor(9), tensor(5), tensor(7), tensor(7), tensor(8), tensor(6), tensor(4), tensor(2), tensor(5), tensor(9), tensor(3), tensor(8), tensor(2), tensor(0), tensor(1), tensor(5), tensor(8), tensor(4), tensor(9), tensor(7), tensor(8), tensor(0), tensor(0), tensor(9), tensor(1), tensor(5), tensor(5), tensor(4), tensor(1), tensor(7), tensor(9), tensor(8), tensor(3), tensor(6), tensor(2), tensor(7), tensor(9), tensor(7), tensor(4), tensor(7), tensor(0), tensor(4), tensor(2), tensor(0), tensor(8), tensor(1), tensor(6), tensor(1), tensor(5), tensor(6), tensor(1), tensor(6), tensor(7), tensor(1), tensor(8)]

 下面看更重要的代码,首先是循环神经网络模型的搭建,代码如下:

  1. #搭建RNN网络
  2. class RNN(torch.nn.Module):
  3. def __init__(self):
  4. super(RNN,self).__init__()
  5. self.rnn = torch.nn.RNN(
  6. input_size = 28,
  7. hidden_size = 128,
  8. num_layers = 1, #指定循环层堆叠的数量,默认为1
  9. batch_first = True)
  10. self.output = torch.nn.Linear(128,10)
  11. def forward(self,input):
  12. output, _ = self.rnn(input, None)
  13. output = self.output(output[:,-1,:])
  14. return output

在代码中构建循环层使用的是 torch.nn.RNN 类,在这个类中使用的几个比较重要的参数如下

  1. input_size:用于指定输入数据的特征数。
  2. hidden_size:用于指定最后隐藏层的输出特征数。
  3. num_layers:用于指定循环层堆叠的数量,默认会使用1。
  4. bias:这个值默认是True,如果我们将其指定为False,就代表我们在循环层中不再使用偏置参与计算。
  5. batch_first:在我们的循环神经网络模型中输入层和输出层用到的数据的默认维度是(seq,batch feature),其中seq为序列的长度,batch为数据批次的数量,feature为输入或输出的特征数。如果我们将该参数指定为True,那么输入层和输出层的数据维度将重新对应为(batch,seq,feature)。

在上面代码里,我们定义的input_size=28,因为输入的手写数据的宽高为28×28,所以可以将每一张图片看作序列长度为28且每个序列中包含28个数据的组合。模型最后输出的结果是分类,所以仍然需要输出10个数据,在代码中的体现就是self.output=torch.nn.Linear(128,10)。

再来看前向传播函数forward中的两行代码,首先是output,_=self.rnn(input, None),其中包含两个输入参数,分别是input输出数据和H0的参数。在循环神经网络模型中,对隐层的初始化我们一般采用0初始化,所以这里传入的参数就是None。再看代码output=self.output(output[:,-1,:]),因为我们的模型需要处理的是分类问题,所以需要提取最后一个序列的输出结果作为当前循环神经网络模型的输出。

搭建好模型后,可以对打印模型:

  1. model = RNN()
  2. model = model.cuda()#使用GPU就加上这行
  3. print(model)

打印结果如下:

  1. RNN(
  2. (rnn): RNN(28, 128, batch_first=True)
  3. (output): Linear(in_features=128, out_features=10, bias=True)
  4. )

然后我们对模型进行训练,训练10次,训练代码如下:

  1. # 设置损失函数和优化器
  2. optimizer = torch.optim.Adam(model.parameters())
  3. loss_f = torch.nn.CrossEntropyLoss()
  4. # 训练模型
  5. epoch_n = 10
  6. for epoch in range(epoch_n):
  7. running_loss = 0.0
  8. running_correct = 0.0
  9. testing_correct = 0.0
  10. print('Epoch{}/{}'.format(epoch,epoch_n))
  11. print('-'*10)
  12. for data in train_loader:
  13. X_train,y_train = data
  14. #注意对输入特征进行维度变换,对应维度(batch,seq,feature)
  15. X_train = X_train.view(-1,28,28)
  16. #这里-1表示一个不确定的数
  17. X_train,y_train = Variable(X_train.cuda()),Variable(y_train.cuda())
  18. y_pred = model(X_train)
  19. loss = loss_f(y_pred,y_train)
  20. _,pred = torch.max(y_pred.data,1)
  21. optimizer.zero_grad()
  22. loss.backward()
  23. optimizer.step()
  24. running_loss += loss.data.item()
  25. running_correct += torch.sum(pred == y_train.data)
  26. for data in test_loader:
  27. X_test,y_test = data
  28. X_test = X_test.view(-1,28,28)
  29. X_test,y_test = Variable(X_test.cuda()),Variable(y_test.cuda())
  30. output = model(X_test)
  31. _,pred = torch.max(output.data,1)
  32. testing_correct += torch.sum(pred == y_test.data)
  33. print('Loss is:{:.4f},Train ACC is:{:.4f}%,Test ACC is:{:.4f}'.format(running_loss/len(dataset_train),
  34. 100*running_correct.cpu().numpy()/len(dataset_train),
  35. 100*testing_correct.cpu().numpy()/len(dataset_test)))

【注意】在这里的时候报错了(ValueError: Expected input batch_size (192) to match target batch_size (64).),我找了半天的bug,一定要注意一个细节(手写数据集的图像是单通道的,不是常见的RGB三通道的,所以在数据预处理部分需要将源码进行如下修改):

 修改之后正常运行结果如下:

  1. Epoch0/10
  2. ----------
  3. Loss is:0.0019,Train ACC is:96.5850%,Test ACC is:95.9000
  4. Epoch1/10
  5. ----------
  6. Loss is:0.0018,Train ACC is:96.7400%,Test ACC is:95.9800
  7. Epoch2/10
  8. ----------
  9. Loss is:0.0017,Train ACC is:96.9800%,Test ACC is:96.4400
  10. Epoch3/10
  11. ----------
  12. Loss is:0.0018,Train ACC is:96.8067%,Test ACC is:95.9600
  13. Epoch4/10
  14. ----------
  15. Loss is:0.0016,Train ACC is:97.0950%,Test ACC is:96.7800
  16. Epoch5/10
  17. ----------
  18. Loss is:0.0017,Train ACC is:96.9133%,Test ACC is:96.0500
  19. Epoch6/10
  20. ----------
  21. Loss is:0.0016,Train ACC is:97.1833%,Test ACC is:97.0800
  22. Epoch7/10
  23. ----------
  24. Loss is:0.0016,Train ACC is:97.1483%,Test ACC is:97.2300
  25. Epoch8/10
  26. ----------
  27. Loss is:0.0016,Train ACC is:97.0400%,Test ACC is:94.5600
  28. Epoch9/10
  29. ----------
  30. Loss is:0.0016,Train ACC is:97.2250%,Test ACC is:97.4000

上述结果看出:输出的准确率较高而且有较低的损失值,这说明模型已经非常不错了。下面对结果进行测试,代码如下:

  1. #对结果进行测试
  2. data_loader_test = torch.utils.data.DataLoader(dataset = dataset_test,
  3. batch_size = 64,
  4. shuffle = True)
  5. X_test,y_test= next(iter(data_loader_test))
  6. X_pred = X_test.view(-1,28,28)
  7. inputs = Variable(X_pred.cuda())
  8. pred = model(inputs)
  9. _,pred = torch.max(pred,1)
  10. print("Predict Label is :",[i.cpu().numpy() for i in pred.data])
  11. print ("Real Label is :", [i.cpu().numpy() for i in y_test])
  12. img = torchvision.utils.make_grid(X_test)
  13. img = img.numpy().transpose(1,2,0)
  14. std = [0.5,0.5,0.5]
  15. mean= [0.5,0.5,0.5]
  16. img = img * std + mean
  17. plt.imshow(img)

打印输出测试图片对应的标签,结果如下:

  1. Predict Label is : [array(7), array(6), array(8), array(2), array(7), array(6), array(7), array(3), array(5), array(8), array(0), array(9), array(4), array(7), array(7), array(6), array(5), array(4), array(9), array(4), array(6), array(2), array(0), array(9), array(2), array(2), array(8), array(7), array(7), array(1), array(3), array(7), array(3), array(8), array(0), array(6), array(7), array(8), array(8), array(3), array(0), array(5), array(2), array(4), array(2), array(9), array(5), array(0), array(6), array(7), array(5), array(8), array(0), array(6), array(9), array(2), array(8), array(0), array(7), array(1), array(0), array(8), array(5), array(4)]
  2. Real Label is : [array(7), array(6), array(5), array(2), array(7), array(6), array(7), array(3), array(5), array(8), array(0), array(9), array(4), array(7), array(7), array(6), array(5), array(4), array(9), array(4), array(6), array(2), array(0), array(9), array(2), array(2), array(8), array(7), array(7), array(1), array(3), array(7), array(3), array(8), array(0), array(9), array(7), array(8), array(8), array(3), array(0), array(5), array(2), array(4), array(2), array(9), array(5), array(0), array(6), array(7), array(5), array(8), array(0), array(6), array(9), array(2), array(8), array(0), array(7), array(1), array(0), array(8), array(5), array(4)]

通过Matplotlib对测试用到的图片进行绘制,效果如图:

从最后的输出结果和图片可以看出,错误率己经非常低了,这说明我们搭建的循环神经网络模型已经能够很好地解决图片分类的问题了。

根据自己的需要,可以选择是否保存训练好的模型,下次直接载入即可,保存代码如下:

torch.save(model.state_dict(),"MNIST_RNN.pth")

使用循环神经网络解决手写数字识别问题的完整代码如下(可跑通):

  1. import torch
  2. import torchvision
  3. from torchvision import datasets, transforms
  4. from torch.autograd import Variable
  5. import matplotlib.pyplot as plt
  6. #和第6章很多代码相似
  7. # 数据预处理(注意这面这行代码要修改)
  8. # transform = transforms.Compose([transforms.ToTensor(),
  9. # transforms.Normalize(mean = [0.5,0.5,0.5],std = [0.5,0.5,0.5])])
  10. transform = transforms.Compose([transforms.ToTensor(),
  11. transforms.Normalize(mean = [0.5],std = [0.5])])
  12. # 读取数据,之前下载过,现在直接读取
  13. dataset_train = datasets.MNIST(root = './data/',
  14. transform = transform,
  15. train = True,
  16. download = False)
  17. dataset_test = datasets.MNIST(root = './data/',
  18. transform = transform,
  19. train = False)
  20. # 加载数据
  21. train_loader = torch.utils.data.DataLoader(dataset = dataset_train,
  22. batch_size = 64,
  23. shuffle = True)
  24. test_loader = torch.utils.data.DataLoader(dataset = dataset_test,
  25. batch_size = 64,
  26. shuffle = True)
  27. images,labels = next(iter(train_loader)) #获取一个批次的图片和标签
  28. img = torchvision.utils.make_grid(images) #将一个批次的图片构造成网格模式
  29. img = img.numpy().transpose(1,2,0)
  30. std = [0.5,0.5,0.5]
  31. mean = [0.5,0.5,0.5]
  32. img = img*std + mean
  33. print([labels[i] for i in range(64)]) #打印这个批次数据的全部标签
  34. plt.imshow(img) #显示图片
  35. plt.show()
  36. #搭建RNN网络
  37. class RNN(torch.nn.Module):
  38. def __init__(self):
  39. super(RNN,self).__init__()
  40. self.rnn = torch.nn.RNN(
  41. input_size = 28,
  42. hidden_size = 128,
  43. num_layers = 1, #指定循环层堆叠的数量,默认为1
  44. batch_first = True)
  45. self.output = torch.nn.Linear(128,10)
  46. def forward(self,input):
  47. # print("input.shape",input.shape)
  48. output, _ = self.rnn(input, None)
  49. output = self.output(output[:,-1,:])
  50. return output
  51. model = RNN()
  52. model = model.cuda() #如果用gpu训练,则加上这行
  53. # print(model)
  54. # 设置损失函数和优化器
  55. optimizer = torch.optim.Adam(model.parameters())
  56. loss_f = torch.nn.CrossEntropyLoss()
  57. # 训练模型
  58. epoch_n = 10
  59. for epoch in range(epoch_n):
  60. running_loss = 0.0
  61. running_correct = 0.0
  62. testing_correct = 0.0
  63. print('Epoch{}/{}'.format(epoch,epoch_n))
  64. print('-'*10)
  65. for data in train_loader:
  66. X_train,y_train = data
  67. #注意对输入特征进行维度变换,对应维度(batch,seq,feature)
  68. X_train = X_train.view(-1,28,28)
  69. #这里-1表示一个不确定的数
  70. X_train,y_train = Variable(X_train.cuda()),Variable(y_train.cuda())
  71. y_pred = model(X_train)
  72. loss = loss_f(y_pred,y_train)
  73. _,pred = torch.max(y_pred.data,1)
  74. optimizer.zero_grad()
  75. loss.backward()
  76. optimizer.step()
  77. running_loss += loss.data.item()
  78. running_correct += torch.sum(pred == y_train.data)
  79. for data in test_loader:
  80. X_test,y_test = data
  81. X_test = X_test.view(-1,28,28)
  82. X_test,y_test = Variable(X_test.cuda()),Variable(y_test.cuda())
  83. output = model(X_test)
  84. _,pred = torch.max(output.data,1)
  85. testing_correct += torch.sum(pred == y_test.data)
  86. print('Loss is:{:.4f},Train ACC is:{:.4f}%,Test ACC is:{:.4f}'.format(running_loss/len(dataset_train),
  87. 100*running_correct.cpu().numpy()/len(dataset_train),
  88. 100*testing_correct.cpu().numpy()/len(dataset_test)))
  89. #对结果进行测试
  90. data_loader_test = torch.utils.data.DataLoader(dataset = dataset_test,
  91. batch_size = 64,
  92. shuffle = True)
  93. X_test,y_test= next(iter(data_loader_test))
  94. X_pred = X_test.view(-1,28,28)
  95. inputs = Variable(X_pred.cuda())
  96. pred = model(inputs)
  97. _,pred = torch.max(pred,1)
  98. print("Predict Label is :",[i.cpu().numpy() for i in pred.data])
  99. print ("Real Label is :", [i.cpu().numpy() for i in y_test])
  100. img = torchvision.utils.make_grid(X_test)
  101. img = img.numpy().transpose(1,2,0)
  102. std = [0.5,0.5,0.5]
  103. mean= [0.5,0.5,0.5]
  104. img = img * std + mean
  105. plt.imshow(img)
  106. #保存模型
  107. torch.save(model.state_dict(),"MNIST_RNN.pth")

10.3 小结 

循环神经网络模型目前主要应用于自然语言处理领域,不过在计算机视觉的相关问题上也能够看到循环神经网络的身影。比如,我们在使用卷积神经网络识别出一张图片中的多个对象后,就可以通过循经网络依据识别的目标对象生成一个图片摘要。又比如,我们可以用循环神经网络处理连续 的视频数据,因为完整的视频画面是由它的最小单位帧构成的,每一帧画面都可以作为一个输入数据进行处理,这就变成了一个序列问题。这样的例子还有很多,我们可以不断地发现和发掘,让循环神经网络和卷积神经网络有效结合起来 ,这必然能够开拓计算机视觉领域的新思路

说明:记录学习笔记,如果错误欢迎指正!写文章不易,转载请联系我。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/720157
推荐阅读
相关标签
  

闽ICP备14008679号