当前位置:   article > 正文

【深度学习实验】循环神经网络(二):使用循环神经网络(RNN)模型进行序列数据的预测_rnn 用于尺寸预测的实战

rnn 用于尺寸预测的实战

目录

一、实验介绍

二、实验环境

1. 配置虚拟环境

2. 库版本介绍

三、实验内容

0. 导入必要的工具包

1. RNN模型

a. 初始化__init__

b. 前向传播方法forward

2. 训练和预测

a. 超参数

b. 创建模型实例

c. 模型训练

d. 预测结果可视化

3. 代码整合


        经验是智慧之父,记忆是智慧之母。

——谚语

一、实验介绍

        本实验实现了一个简单的循环神经网络(RNN)模型,并使用该模型进行序列数据的预测,本文将详细介绍代码各个部分的实现,包括模型的定义、训练过程以及预测结果的可视化。

        在前馈神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力.在生物神经网络中,神经元之间的连接关系要复杂得多.前馈神经网络可以看作一个复杂的函数,每次输入都是独立的,即网络的输出只依赖于当前的输入.但是在很多现实任务中, 网络的输出不仅和当前时刻的输入相关,也和其过去一段时间的输出相关.比如一个有限状态自动机,其下一个时刻的状态(输出)不仅仅和当前输入相关,也和当前状态(上一个时刻的输出)相关.此外,前馈网络难以处理时序数据,比如视频、语音、文本等.时序数据的长度一般是不固定的,而前馈神经网络要求输入和输出的维数都是固定的,不能任意改变.因此,当处理这一类和时序数据相关 的问题时,就需要一种能力更强的模型. 循环神经网络(Recurrent Neural Network,RNN)是一类具有短期记忆能力的神经网络

        在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的网络结构.和前馈神经网络相比,循环神经网络更加符合生物神经网络的结构.循环神经网络已经被广泛应用在语音识别、语言模型以及自然语言生成等任务上.循环神经网络的参数学习可以通过随时间反向传播算法[Werbos, 1990]来学习.随时间反向传播算法即按照时间的逆序将错误信息一步步地往前传递.

二、实验环境

        本系列实验使用了PyTorch深度学习框架,相关操作如下:

1. 配置虚拟环境

conda create -n DL python=3.7 
conda activate DL
pip install torch==1.8.1+cu102 torchvision==0.9.1+cu102 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
conda install matplotlib
 conda install scikit-learn

2. 库版本介绍

软件包本实验版本目前最新版
matplotlib3.5.33.8.0
numpy1.21.61.26.0
python3.7.16
scikit-learn0.22.11.3.0
torch1.8.1+cu1022.0.1
torchaudio0.8.12.0.2
torchvision0.9.1+cu1020.15.2

三、实验内容

0. 导入必要的工具包

  1. import torch
  2. from torch import nn
  3. import matplotlib.pyplot as plt
  4. import numpy as np

1. RNN模型

  1. class Rnn(nn.Module):
  2. def __init__(self, input_size):
  3. super(Rnn, self).__init__()
  4. # 定义RNN网络
  5. ## hidden_size是自己设置的,取值都是32,64,128这样来取值
  6. ## num_layers是隐藏层数量,超过2层那就是深度循环神经网络了
  7. self.rnn = nn.RNN(
  8. input_size=input_size,
  9. hidden_size=32,
  10. num_layers=1,
  11. batch_first=True # 输入形状为[批量大小, 数据序列长度, 特征维度]
  12. )
  13. # 定义全连接层
  14. self.out = nn.Linear(32, 1)
  15. # 定义前向传播函数
  16. def forward(self, x, h_0):
  17. r_out, h_n = self.rnn(x, h_0)
  18. # print("数据输出结果;隐藏层数据结果", r_out, h_n)
  19. # print("r_out.size(), h_n.size()", r_out.size(), h_n.size())
  20. outs = []
  21. # r_out.size=[1,10,32]即将一个长度为10的序列的每个元素都映射到隐藏层上
  22. for time in range(r_out.size(1)):
  23. # print("映射", r_out[:, time, :])
  24. # 依次抽取序列中每个单词,将之通过全连接层并输出.r_out[:, 0, :].size()=[1,32] -> [1,1]
  25. outs.append(self.out(r_out[:, time, :]))
  26. # print("outs", outs)
  27. # stack函数在dim=1上叠加:10*[1,1] -> [1,10,1] 同时h_n已经被更新
  28. return torch.stack(outs, dim=1), h_n

a. 初始化__init__

  • 定义了RNN网络和全连接层。
    • self.rnn是一个RNN层:使用nn.RNN创建。
      • input_size参数表示输入数据的特征维度
      • hidden_size表示隐藏状态的维度
      • num_layers表示RNN层的堆叠层数
      • batch_first=True表示输入的形状为[批量大小, 数据序列长度, 特征维度]。
    • self.out是一个全连接层,将RNN的输出映射到1维输出。

b. 前向传播方法forward

  • 接受输入数据x和初始隐藏状态h_0作为参数。
    • 将输入数据和隐藏状态传入RNN层,得到输出r_out和最终隐藏状态h_n
    • 通过循环将序列中的每个时间步的输出经过全连接层,并将结果添加到outs列表中。
    • 使用torch.stack函数将outs列表中的结果在维度1上叠加,得到最终的预测结果,并返回预测结果和最终隐藏状态。

2. 训练和预测

a. 超参数

  1. TIME_STEP = 10
  2. INPUT_SIZE = 1
  3. LR = 0.02
  • TIME_STEP表示序列的长度
  • INPUT_SIZE表示输入数据的特征维度
  • LR表示学习率

b. 创建模型实例

  1. model = Rnn(INPUT_SIZE)
  2. print(model)

c. 模型训练

        使用正弦和余弦序列数据作为输入和目标输出,通过迭代训练,模型通过反向传播和优化器来不断调整参数以最小化预测结果与目标输出之间的损失。

  1. loss_func = nn.MSELoss()
  2. optimizer = torch.optim.Adam(model.parameters(), lr=LR)
  3. h_state = None # 初始化h_state为None
  4. for step in range(300):
  5. # 人工生成输入和输出,输入x.size=[1,10,1],输出y.size=[1,10,1]
  6. start, end = step * np.pi, (step + 1) * np.pi
  7. # np.linspace生成一个指定大小,指定数据区间的均匀分布序列,TIME_STEP是生成数量
  8. steps = np.linspace(start, end, TIME_STEP, dtype=np.float32)
  9. # print("steps", steps)
  10. x_np = np.sin(steps)
  11. y_np = np.cos(steps)
  12. # print("x_np,y_np", x_np, y_np)
  13. # 从numpy.ndarray创建一个张量 np.newaxis增加新的维度
  14. x = torch.from_numpy(x_np[np.newaxis, :, np.newaxis])
  15. y = torch.from_numpy(y_np[np.newaxis, :, np.newaxis])
  16. # print("x,y", x,y)
  17. # 将x通过网络,长度为10的序列通过网络得到最终隐藏层状态h_state和长度为10的输出prediction:[1,10,1]
  18. prediction, h_state = model(x, h_state)
  19. h_state = h_state.data
  20. # 这一步只取了h_state.data.因为h_state包含.data和.grad 舍弃了梯度
  21. # print("precision, h_state.data", prediction, h_state)
  22. # print("prediction.size(), h_state.size()", prediction.size(), h_state.size())
  23. # 反向传播
  24. loss = loss_func(prediction, y)
  25. optimizer.zero_grad()
  26. loss.backward()
  27. # 更新优化器参数
  28. optimizer.step()
  • 损失函数loss_func为均方误差损失(MSELoss)。
  • 优化器optimizer,使用Adam优化算法来更新模型的参数。
  • 初始化隐藏状态h_state为None。
  • 进行训练循环,共迭代300次:
    • 生成输入数据和目标输出数据。通过在每个迭代步骤中生成一个时间步长范围内的正弦和余弦函数值来构造序列数据。
    • 将生成的数据转换为张量形式,并添加新的维度。
    • 将输入数据通过模型进行前向传播,得到预测结果和最终隐藏状态。
    • 计算预测结果与目标输出之间的损失。
    • 清零优化器的梯度。
    • 执行反向传播,计算梯度。
    • 更新优化器的参数。

d. 预测结果可视化

  1. plt.plot(steps, y_np.flatten(), 'r-')
  2. plt.plot(steps, prediction.data.numpy().flatten(), 'b-')
  3. plt.show()

        将真实的目标输出数据和模型的预测结果进行可视化展示。

3. 代码整合

  1. # 导入必要的工具包
  2. import torch
  3. from torch import nn
  4. import matplotlib.pyplot as plt
  5. import numpy as np
  6. # 定义RNN模型
  7. class Rnn(nn.Module):
  8. def __init__(self, input_size):
  9. super(Rnn, self).__init__()
  10. # 定义RNN网络
  11. ## hidden_size是自己设置的,取值都是32,64,128这样来取值
  12. ## num_layers是隐藏层数量,超过2层那就是深度循环神经网络了
  13. self.rnn = nn.RNN(
  14. input_size=input_size,
  15. hidden_size=32,
  16. num_layers=1,
  17. batch_first=True # 输入形状为[批量大小, 数据序列长度, 特征维度]
  18. )
  19. # 定义全连接层
  20. self.out = nn.Linear(32, 1)
  21. # 定义前向传播函数
  22. def forward(self, x, h_0):
  23. r_out, h_n = self.rnn(x, h_0)
  24. # print("数据输出结果;隐藏层数据结果", r_out, h_n)
  25. # print("r_out.size(), h_n.size()", r_out.size(), h_n.size())
  26. outs = []
  27. # r_out.size=[1,10,32]即将一个长度为10的序列的每个元素都映射到隐藏层上
  28. for time in range(r_out.size(1)):
  29. # print("映射", r_out[:, time, :])
  30. # 依次抽取序列中每个单词,将之通过全连接层并输出.r_out[:, 0, :].size()=[1,32] -> [1,1]
  31. outs.append(self.out(r_out[:, time, :]))
  32. # print("outs", outs)
  33. # stack函数在dim=1上叠加:10*[1,1] -> [1,10,1] 同时h_n已经被更新
  34. return torch.stack(outs, dim=1), h_n
  35. if __name__ == '__main__':
  36. TIME_STEP = 10
  37. INPUT_SIZE = 1
  38. LR = 0.02
  39. model = Rnn(INPUT_SIZE)
  40. print(model)
  41. # 此处使用的是均方误差损失
  42. loss_func = nn.MSELoss()
  43. optimizer = torch.optim.Adam(model.parameters(), lr=LR)
  44. h_state = None # 初始化h_state为None
  45. for step in range(300):
  46. # 人工生成输入和输出,输入x.size=[1,10,1],输出y.size=[1,10,1]
  47. start, end = step * np.pi, (step + 1) * np.pi
  48. # np.linspace生成一个指定大小,指定数据区间的均匀分布序列,TIME_STEP是生成数量
  49. steps = np.linspace(start, end, TIME_STEP, dtype=np.float32)
  50. # print("steps", steps)
  51. x_np = np.sin(steps)
  52. y_np = np.cos(steps)
  53. # print("x_np,y_np", x_np, y_np)
  54. # 从numpy.ndarray创建一个张量 np.newaxis增加新的维度
  55. x = torch.from_numpy(x_np[np.newaxis, :, np.newaxis])
  56. y = torch.from_numpy(y_np[np.newaxis, :, np.newaxis])
  57. # print("x,y", x,y)
  58. # 将x通过网络,长度为10的序列通过网络得到最终隐藏层状态h_state和长度为10的输出prediction:[1,10,1]
  59. prediction, h_state = model(x, h_state)
  60. h_state = h_state.data
  61. # 这一步只取了h_state.data.因为h_state包含.data和.grad 舍弃了梯度
  62. # print("precision, h_state.data", prediction, h_state)
  63. # print("prediction.size(), h_state.size()", prediction.size(), h_state.size())
  64. # 反向传播
  65. loss = loss_func(prediction, y)
  66. optimizer.zero_grad()
  67. loss.backward()
  68. # 更新优化器参数
  69. optimizer.step()
  70. # 对最后一次的结果作图查看网络的预测效果
  71. plt.plot(steps, y_np.flatten(), 'r-')
  72. plt.plot(steps, prediction.data.numpy().flatten(), 'b-')
  73. plt.show()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/557866
推荐阅读
相关标签
  

闽ICP备14008679号