当前位置:   article > 正文

时间序列预测模型实战案例(七)(TPA-LSTM)结合TPA注意力机制的LSTM实现多元预测_时间序列 lstm 案例

时间序列 lstm 案例

论文地址->TPA-LSTM论文地址

项目地址-> TPA-LSTM时间序列预测实战案例

本文介绍

本文通过实战案例讲解TPA-LSTM实现多元时间序列预测,在本文中所提到的TPA和LSTM分别是注意力机制和深度学习模型,通过将其结合到一起实现时间序列的预测,本文利用有关油温的数据集来进行训练模型,同时将模型保存到本地,进行加载实现多步长预测,本文所利用的数据集也可以替换成你个人的数据集来进行预测(修改个人的数据集的地方本文也进行了标注),同时本文会对TPA和LSTM分别进行概念的讲解帮助大家理解其中的运行机制原理(包括个人总结已经论文内容)。

LSTM介绍

在开始实战讲解之前先来简单理解一下LSTM,其原理在我的另一篇博客中已经详细的讲解过了,这里只是简单的回顾,如果大家想要更深入的理解可以观看我的另一篇博客,地址如下->时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解)

LSTM的概念 

LSTM(长短期记忆,Long Short-Term Memory)是一种用于处理序列数据的深度学习模型,属于循环神经网络(RNN)的一种变体,其使用一种类似于搭桥术结构的RNN单元。相对于普通的RNN,LSTM引入了门控机制,能够更有效地处理长期依赖和短期记忆问题,是RNN网络中最常使用的Cell之一,LSTM的网络结构图如下图所示。

TPA机制介绍

本文主要介绍的是TPA注意力机制,LSTM在之前的文章中已经介绍过了,下面先来介绍一下其工作原理。

TPA的概念

TPA(Temporal Pattern Attention)注意力机制是一种用于处理时间序列数据的注意力机制。它的工作原理是在传统的注意力机制的基础上引入了时间模式的概念,以更好地捕捉时间序列中的重要模式和特征。

TPA的的工作步骤

TPA注意力机制的主要步骤如下:

1. 输入数据准备:给定一个时间序列数据,将其表示为X = {x1, x2, ..., xt},其中xi表示时间i处的观测值。

2. 特征提取:通过使用卷积神经网络,从时间序列中提取特征。这些特征可以是局部模式、全局趋势等。

3. 时间模式编码:将提取的特征序列传递给时间模式编码器。时间模式编码器通过学习时间序列中的重要模式和特征,生成一个编码向量序列。

4. 注意力计算:在时间模式编码器的输出上应用注意力机制。传统的注意力机制计算注意力权重,用于选择与当前时间步相关的信息。而TPA注意力机制通过计算注意力权重,选择与当前时间步相关的重要时间模式。

5. 上下文向量生成:根据注意力权重和时间模式编码器的输出,计算上下文向量。上下文向量是根据选择的重要时间模式加权求和的结果。

6. 预测生成:将上下文向量与其他信息(例如隐藏状态)进行拼接,然后通过适当的操作(如矩阵乘法)生成最终的预测结果。

如果大家觉得文字的描述不够直观,我们来看下图通过分析图片的形式来理解其工作原理。

上图显示了TPA注意力机制从输入到输出的过程工作流程,其中h_{t}表示时间步t处RNN的隐藏状态。有k个长度为w1d CNN(注意是1维的并不像图像处理的2维或三维)滤波器,用不同颜色的矩形表示。然后,每个滤波器在m个隐藏状态特征上进行卷积,并生成一个具有m行和k列的矩阵H^{C}。接下来,评分函数通过与当前隐藏状态ht进行比较,为H^{C}的每一行计算一个权重。然后,权重进行归一化,H^{C}的行按照对应的权重进行加权求和,生成V_{t }。最后,我们将V_{t }h_{t}进行拼接,并进行矩阵乘法生成h_{t}^{'}用于创建最终的预测值。 

个人总结->TPA注意力机制的关键创新点在于引入了时间模式编码和基于时间模式的注意力计算。这使得模型能够更好地理解和捕捉时间序列数据中的重要模式和特征,从而提高预测性能。 

实战讲解

讲过上文中的简单介绍,大家对于LSTM和TPA机制应该有了一个简单的了解,本文是实战案例讲解,主要部分还是代码部分的应用,所以下面来进行实战案例的讲解。

项目结构构成 

先来看一下我们的文件目录结构构成。

其中main.py文件为程序入口,dataset.py文件为数据处理的一些操作,tpa-lstm.pyp文件定义了我们的模型结构,util.py为定义的一些工具包,checkpoints为模型文件的保存文件夹,ETTh1.csv文件为数据集。 

项目完整代码

为了方便讲解我把上面提到的几个代码先放到这里,文章的开头已经提供下载地址给大家了,如果大家不愿意下载可以按照项目结构构成复制即可。

main.py文件如下

  1. import lightning.pytorch as pl
  2. import matplotlib.pyplot as plt
  3. import pandas as pd
  4. from lightning.pytorch.callbacks import ModelCheckpoint
  5. from dataset import ElectricityDataModule
  6. from tpa_lstm import TPALSTM
  7. data_df = pd.read_csv('ETTh1.csv', index_col=['date'])
  8. num_features = data_df.shape[1]
  9. data_splits = {
  10. "train": 0.7,
  11. "val": 0.15,
  12. "predict": 0.15
  13. }
  14. pred_horizon = 4
  15. elec_dm = ElectricityDataModule(
  16. dataset_splits=data_splits,
  17. batch_size=128,
  18. window_size=24,
  19. pred_horizon=pred_horizon,
  20. data_style="custom"
  21. )
  22. run_name = f"{pred_horizon}ts-kbest30"
  23. hid_size = 64
  24. n_layers = 1
  25. num_filters = 3
  26. name = f'{run_name}-TPA-LSTM'
  27. checkpoint_loss_tpalstm = ModelCheckpoint(
  28. dirpath=f"checkpoints/{run_name}/TPA-LSTM",
  29. filename=name,
  30. save_top_k=1,
  31. monitor="val/loss",
  32. mode="min"
  33. )
  34. tpalstm_trainer = pl.Trainer(
  35. max_epochs=10,
  36. # accelerator='gpu',
  37. callbacks=[checkpoint_loss_tpalstm],
  38. strategy='auto',
  39. devices=1,
  40. # logger=wandb_logger_tpalstm
  41. )
  42. tpa_lstm = TPALSTM(
  43. input_size=num_features,
  44. hidden_size=hid_size,
  45. output_horizon=pred_horizon,
  46. num_filters=num_filters,
  47. obs_len=24,
  48. n_layers=n_layers,
  49. lr=1e-3
  50. )
  51. tpalstm_trainer.fit(tpa_lstm, elec_dm)
  52. elec_dm.setup("predict")
  53. run_to_load = run_name
  54. model_path = f"checkpoints/{run_to_load}/TPA-LSTM/{name}.ckpt"
  55. tpa_lstm = TPALSTM.load_from_checkpoint(model_path)
  56. pred_dl = elec_dm.predict_dataloader()
  57. y_pred = tpalstm_trainer.predict(tpa_lstm, pred_dl)
  58. batch_idx = 0
  59. start = 0
  60. end = 5
  61. for i, batch in enumerate(pred_dl):
  62. if start <= i <= end:
  63. inputs, labels = batch
  64. X, ytrue = inputs[batch_idx][:, -1], labels[batch_idx].squeeze()
  65. ypred = y_pred[i][batch_idx].squeeze()
  66. X = X.cpu().numpy()
  67. ytrue = ytrue.cpu().numpy()
  68. ypred = ypred.cpu().numpy()
  69. plt.figure(figsize=(8, 4))
  70. plt.plot(range(0, 24), X, label="Input")
  71. plt.scatter(range(24, 24 + pred_horizon), ytrue, color='cornflowerblue', label="True-Value")
  72. plt.scatter(range(24, 24 + pred_horizon), ypred, marker="x", color='green', label="TPA-LSTM pred")
  73. plt.legend(loc="lower left")
  74. plt.savefig("preds")
  75. plt.show()
  76. elif i > end:
  77. break

dataset.py文件如下 ->

  1. import math
  2. import pandas as pd
  3. import torch
  4. from torch.utils.data import Dataset, DataLoader
  5. import lightning.pytorch as pl
  6. class ElectricityDataset(Dataset):
  7. def __init__(
  8. self,
  9. mode,
  10. split_ratios,
  11. window_size,
  12. pred_horizon,
  13. data_style,
  14. ):
  15. self.w_size = window_size
  16. self.pred_horizon = pred_horizon
  17. if data_style == "pca":
  18. self.raw_dataset = pd.read_csv('ETTh1.csv',index_col=['date'])
  19. elif data_style == "kbest":
  20. self.raw_dataset = pd.read_csv('ETTh1.csv',index_col=['date'])
  21. elif data_style == "custom":
  22. self.raw_dataset = pd.read_csv('ETTh1.csv',index_col=['date'])
  23. else:
  24. print("Invalid dataset type")
  25. self.raw_dataset = None
  26. self.train_frac = split_ratios['train']
  27. self.val_frac = split_ratios['val']
  28. self.test_frac = split_ratios['predict']
  29. self.train_lim = math.floor(self.train_frac * self.raw_dataset.shape[0])
  30. self.val_lim = math.floor(self.val_frac * self.raw_dataset.shape[0]) + self.train_lim
  31. if mode == "train":
  32. self.dataset = self.raw_dataset[:self.train_lim]
  33. if mode == "val":
  34. self.dataset = self.raw_dataset[self.train_lim:self.val_lim]
  35. if mode == "predict":
  36. self.dataset = self.raw_dataset[self.val_lim:]
  37. self.device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  38. data_array = self.dataset.values
  39. # self.X = torch.tensor(self.dataset[:, :-1], dtype=torch.float32).to(self.device)
  40. self.X = torch.tensor(data_array, dtype=torch.float32).to(self.device)
  41. self.y = torch.tensor(data_array[:, -1], dtype=torch.float32) \
  42. .unsqueeze(1).to(self.device)
  43. def __getitem__(self, idx):
  44. return (
  45. self.X[idx:idx + self.w_size, :],
  46. self.y[idx + self.w_size: idx + self.w_size + self.pred_horizon]
  47. )
  48. def __len__(self):
  49. # TODO Check this is correct
  50. return len(self.dataset) - (self.w_size + self.pred_horizon)
  51. def get_input_size(self):
  52. return self.dataset.shape[1]
  53. class ElectricityDataModule(pl.LightningDataModule):
  54. def __init__(
  55. self,
  56. dataset_splits,
  57. batch_size=64,
  58. window_size=24,
  59. pred_horizon=1,
  60. data_style="pca"
  61. ):
  62. super().__init__()
  63. self.batch_size = batch_size
  64. self.dataset_splits = dataset_splits
  65. self.window_size = window_size
  66. self.pred_horizon = pred_horizon
  67. self.data_style=data_style
  68. def setup(self, stage):
  69. if stage == "fit":
  70. self.data_train = ElectricityDataset(
  71. mode="train",
  72. split_ratios=self.dataset_splits,
  73. window_size=self.window_size,
  74. pred_horizon=self.pred_horizon,
  75. data_style=self.data_style
  76. )
  77. self.data_val = ElectricityDataset(
  78. mode="val",
  79. split_ratios=self.dataset_splits,
  80. window_size=self.window_size,
  81. pred_horizon=self.pred_horizon,
  82. data_style=self.data_style
  83. )
  84. elif stage == "predict":
  85. self.data_pred = ElectricityDataset(
  86. mode="predict",
  87. split_ratios=self.dataset_splits,
  88. window_size=self.window_size,
  89. pred_horizon=self.pred_horizon,
  90. data_style=self.data_style
  91. )
  92. def train_dataloader(self):
  93. return DataLoader(self.data_train, batch_size=self.batch_size, shuffle=False)
  94. def val_dataloader(self):
  95. return DataLoader(self.data_val, batch_size=self.batch_size, shuffle=False)
  96. def predict_dataloader(self):
  97. return DataLoader(self.data_pred, batch_size=self.batch_size, shuffle=False)

tpa_lstm.py文件如下-> 

  1. import torch
  2. from torch import nn, optim
  3. import lightning.pytorch as pl
  4. from util import RMSE, RSE, CORR
  5. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  6. class TPALSTM(pl.LightningModule):
  7. def __init__(self, input_size, output_horizon, num_filters, hidden_size, obs_len, n_layers, lr=1e-3):
  8. super(TPALSTM, self).__init__()
  9. self.hidden = nn.Linear(input_size, 24)
  10. self.relu = nn.ReLU()
  11. self.lstm = nn.LSTM(input_size, hidden_size, n_layers, \
  12. bias=True, batch_first=True) # output (batch_size, obs_len, hidden_size)
  13. self.hidden_size = hidden_size
  14. self.filter_num = num_filters
  15. self.filter_size = 1 # Don't change this - otherwise CNN filters no longer 1D
  16. self.output_horizon = output_horizon
  17. self.attention = TemporalPatternAttention(self.filter_size, \
  18. self.filter_num, obs_len - 1, hidden_size)
  19. self.mlp_out = nn.Sequential(
  20. nn.Linear(hidden_size, hidden_size // 2),
  21. self.relu,
  22. nn.Dropout(p=0.2),
  23. nn.Linear(hidden_size // 2, output_horizon)
  24. )
  25. self.linear = nn.Linear(hidden_size, output_horizon)
  26. self.n_layers = n_layers
  27. self.lr = lr
  28. self.criterion = nn.MSELoss()
  29. self.save_hyperparameters()
  30. def forward(self, x):
  31. batch_size, obs_len, f_dim = x.size()
  32. H = torch.zeros(batch_size, obs_len - 1, self.hidden_size).to(device)
  33. ht = torch.zeros(self.n_layers, batch_size, self.hidden_size).to(device)
  34. ct = ht.clone()
  35. for t in range(obs_len):
  36. xt = x[:, t, :].view(batch_size, 1, -1)
  37. out, (ht, ct) = self.lstm(xt, (ht, ct))
  38. htt = ht.permute(1, 0, 2)
  39. htt = htt[:, -1, :]
  40. if t != obs_len - 1:
  41. H[:, t, :] = htt
  42. H = self.relu(H)
  43. # reshape hidden states H
  44. H = H.view(-1, 1, obs_len - 1, self.hidden_size)
  45. new_ht = self.attention(H, htt)
  46. ypred = self.linear(new_ht).unsqueeze(-1)
  47. # ypred = self.mlp_out(new_ht).unsqueeze(-1)
  48. return ypred
  49. def training_step(self, batch, batch_idx):
  50. inputs, label = batch
  51. outputs = self.forward(inputs)
  52. loss = self.criterion(outputs, label)
  53. corr = CORR(outputs, label)
  54. rse = RSE(outputs, label)
  55. self.log("train/loss", loss, prog_bar=True, on_epoch=True, on_step=False)
  56. self.log("train/corr", corr, prog_bar=True, on_epoch=True, on_step=False)
  57. self.log("train/rse", rse, prog_bar=True, on_epoch=True, on_step=False)
  58. return loss
  59. def validation_step(self, batch, batch_idx):
  60. inputs, label = batch
  61. outputs = self.forward(inputs)
  62. loss = self.criterion(outputs, label)
  63. corr = CORR(outputs, label)
  64. rse = RSE(outputs, label)
  65. self.log("val/loss", loss, prog_bar=True, on_epoch=True, on_step=False)
  66. self.log("val/corr", corr, prog_bar=True, on_epoch=True, on_step=False)
  67. self.log("val/rse", rse, prog_bar=True, on_epoch=True, on_step=False)
  68. def predict_step(self, batch, batch_idx):
  69. inputs, label = batch
  70. pred = self.forward(inputs)
  71. return pred
  72. def configure_optimizers(self):
  73. optimiser = optim.Adam(
  74. self.parameters(),
  75. lr=self.lr,
  76. amsgrad=False,
  77. # weight_decay=1e-4,
  78. )
  79. return optimiser
  80. class TemporalPatternAttention(nn.Module):
  81. def __init__(self, filter_size, filter_num, attn_len, attn_size):
  82. super(TemporalPatternAttention, self).__init__()
  83. self.filter_size = filter_size
  84. self.filter_num = filter_num
  85. self.feat_size = attn_size - self.filter_size + 1
  86. self.conv = nn.Conv2d(1, filter_num, (attn_len, filter_size))
  87. self.linear1 = nn.Linear(attn_size, filter_num)
  88. self.linear2 = nn.Linear(attn_size + self.filter_num, attn_size)
  89. self.relu = nn.ReLU()
  90. def forward(self, H, ht):
  91. _, channels, _, attn_size = H.size()
  92. new_ht = ht.view(-1, 1, attn_size)
  93. w = self.linear1(new_ht) # batch_size, 1, filter_num
  94. conv_vecs = self.conv(H)
  95. conv_vecs = conv_vecs.view(-1, self.feat_size, self.filter_num)
  96. conv_vecs = self.relu(conv_vecs)
  97. # score function
  98. w = w.expand(-1, self.feat_size, self.filter_num)
  99. s = torch.mul(conv_vecs, w).sum(dim=2)
  100. alpha = torch.sigmoid(s)
  101. new_alpha = alpha.view(-1, self.feat_size, 1).expand(-1, self.feat_size, self.filter_num)
  102. v = torch.mul(new_alpha, conv_vecs).sum(dim=1).view(-1, self.filter_num)
  103. concat = torch.cat([ht, v], dim=1)
  104. new_ht = self.linear2(concat)
  105. return new_ht

util.py文件如下-> 

  1. #!/usr/bin/python 3.6
  2. #-*-coding:utf-8-*-
  3. '''
  4. Utility functions
  5. '''
  6. import torch
  7. import numpy as np
  8. import os
  9. import random
  10. def get_data_path():
  11. folder = os.path.dirname(__file__)
  12. return os.path.join(folder, "data")
  13. def RSE(ypred, ytrue):
  14. if isinstance(ypred, np.ndarray):
  15. rse = np.sqrt(np.square(ypred - ytrue).sum()) / \
  16. np.sqrt(np.square(ytrue - ytrue.mean()).sum())
  17. else:
  18. rse = torch.sqrt(torch.square(ypred - ytrue).sum()) / \
  19. torch.sqrt(torch.square(ytrue - ytrue.mean()).sum())
  20. return rse
  21. def RMSE(ypred, ytrue):
  22. return torch.sqrt(torch.mean(torch.sum(torch.square(ypred - ytrue), dim=1)))
  23. def CORR(ypred, ytrue):
  24. if isinstance(ypred, np.ndarray):
  25. vx = ypred - np.mean(ypred)
  26. vy = ytrue - np.mean(ytrue)
  27. return np.sum(vx * vy) / (np.sqrt(np.sum(vx ** 2)) * np.sqrt(np.sum(vy ** 2)))
  28. else:
  29. vx = ypred - torch.mean(ypred)
  30. vy = ytrue - torch.mean(ytrue)
  31. return torch.sum(vx * vy) / (torch.sqrt(torch.sum(vx ** 2)) * torch.sqrt(torch.sum(vy ** 2)))
  32. def quantile_loss(ytrue, ypred, qs):
  33. '''
  34. Quantile loss version 2
  35. Args:
  36. ytrue (batch_size, output_horizon)
  37. ypred (batch_size, output_horizon, num_quantiles)
  38. '''
  39. L = np.zeros_like(ytrue)
  40. for i, q in enumerate(qs):
  41. yq = ypred[:, :, i]
  42. diff = yq - ytrue
  43. L += np.max(q * diff, (q - 1) * diff)
  44. return L.mean()
  45. def SMAPE(ytrue, ypred):
  46. ytrue = np.array(ytrue).ravel()
  47. ypred = np.array(ypred).ravel() + 1e-4
  48. mean_y = (ytrue + ypred) / 2.
  49. return np.mean(np.abs((ytrue - ypred) \
  50. / mean_y))
  51. def MAPE(ytrue, ypred):
  52. ytrue = np.array(ytrue).ravel() + 1e-4
  53. ypred = np.array(ypred).ravel()
  54. return np.mean(np.abs((ytrue - ypred) \
  55. / ytrue))
  56. def train_test_split(X, y, train_ratio=0.7):
  57. num_ts, num_periods, num_features = X.shape
  58. train_periods = int(num_periods * train_ratio)
  59. random.seed(2)
  60. Xtr = X[:, :train_periods, :]
  61. ytr = y[:, :train_periods]
  62. Xte = X[:, train_periods:, :]
  63. yte = y[:, train_periods:]
  64. return Xtr, ytr, Xte, yte
  65. class StandardScaler:
  66. def fit_transform(self, y):
  67. self.mean = np.mean(y)
  68. self.std = np.std(y) + 1e-4
  69. return (y - self.mean) / self.std
  70. def inverse_transform(self, y):
  71. return y * self.std + self.mean
  72. def transform(self, y):
  73. return (y - self.mean) / self.std
  74. class MaxScaler:
  75. def fit_transform(self, y):
  76. self.max = np.max(y)
  77. return y / self.max
  78. def inverse_transform(self, y):
  79. return y * self.max
  80. def transform(self, y):
  81. return y / self.max
  82. class MeanScaler:
  83. def fit_transform(self, y):
  84. self.mean = np.mean(y)
  85. return y / self.mean
  86. def inverse_transform(self, y):
  87. return y * self.mean
  88. def transform(self, y):
  89. return y / self.mean
  90. class LogScaler:
  91. def fit_transform(self, y):
  92. return np.log1p(y)
  93. def inverse_transform(self, y):
  94. return np.expm1(y)
  95. def transform(self, y):
  96. return np.log1p(y)
  97. def gaussian_likelihood_loss(z, mu, sigma):
  98. '''
  99. Gaussian Liklihood Loss
  100. Args:
  101. z (tensor): true observations, shape (num_ts, num_periods)
  102. mu (tensor): mean, shape (num_ts, num_periods)
  103. sigma (tensor): standard deviation, shape (num_ts, num_periods)
  104. likelihood:
  105. (2 pi sigma^2)^(-1/2) exp(-(z - mu)^2 / (2 sigma^2))
  106. log likelihood:
  107. -1/2 * (log (2 pi) + 2 * log (sigma)) - (z - mu)^2 / (2 sigma^2)
  108. '''
  109. negative_likelihood = torch.log(sigma + 1) + (z - mu) ** 2 / (2 * sigma ** 2) + 6
  110. return negative_likelihood.mean()
  111. def negative_binomial_loss(ytrue, mu, alpha):
  112. '''
  113. Negative Binomial Sample
  114. Args:
  115. ytrue (array like)
  116. mu (array like)
  117. alpha (array like)
  118. maximuze log l_{nb} = log Gamma(z + 1/alpha) - log Gamma(z + 1) - log Gamma(1 / alpha)
  119. - 1 / alpha * log (1 + alpha * mu) + z * log (alpha * mu / (1 + alpha * mu))
  120. minimize loss = - log l_{nb}
  121. Note: torch.lgamma: log Gamma function
  122. '''
  123. batch_size, seq_len = ytrue.size()
  124. likelihood = torch.lgamma(ytrue + 1. / alpha) - torch.lgamma(ytrue + 1) - torch.lgamma(1. / alpha) \
  125. - 1. / alpha * torch.log(1 + alpha * mu) \
  126. + ytrue * torch.log(alpha * mu / (1 + alpha * mu))
  127. return - likelihood.mean()
  128. def batch_generator(X, y, num_obs_to_train, seq_len, batch_size):
  129. '''
  130. Args:
  131. X (array like): shape (num_samples, num_features, num_periods)
  132. y (array like): shape (num_samples, num_periods)
  133. num_obs_to_train (int):
  134. seq_len (int): sequence/encoder/decoder length
  135. batch_size (int)
  136. '''
  137. num_ts, num_periods, _ = X.shape
  138. if num_ts < batch_size:
  139. batch_size = num_ts
  140. t = random.choice(range(num_obs_to_train, num_periods-seq_len))
  141. batch = random.sample(range(num_ts), batch_size)
  142. X_train_batch = X[batch, t-num_obs_to_train:t, :]
  143. y_train_batch = y[batch, t-num_obs_to_train:t]
  144. Xf = X[batch, t:t+seq_len]
  145. yf = y[batch, t:t+seq_len]
  146. return X_train_batch, y_train_batch, Xf, yf

项目网络结构

本项目的网络结构图如下所示在控制台输出了大家如果想要修改可以在其中的对应的位置添加或删除都可以。

代码讲解

训练部分

我们首先来看main.py文件我也只会讲解这一个文件,(因为代码很多,如果大家有需要我后期会出视频带着大家过一遍其中的代码),;

main.py文件的内容不是很多,首先最上面的模块导入部分,我不讲解了,前面有我应用的版本,大家如果有一些版本报错的话可以参考。

  1. data_df = pd.read_csv('ETTh1.csv', index_col=['date'])
  2. num_features = data_df.shape[1]

这两行代码就是数据的读取操作,以及获取数据的特征数,因为我们是多元预测,数据肯定不只一列,所以我们要告诉模型我们的输入有多少列模型好做多少列的预测。

  1. data_splits = {
  2. "train": 0.7,
  3. "val": 0.15,
  4. "predict": 0.15
  5. }

这几行是数据集的一个划分,大家应该都明白。这里训练集划分为模型的0.7、验证集为0.15、测试集为0.15。

pred_horizon = 4

这个参数就是你预测未来数据的长度,假设你数据集的时间是按照小时来划分,那么如果输入4就是未来四小时的一个情况。 

  1. elec_dm = ElectricityDataModule(
  2. dataset_splits=data_splits,
  3. batch_size=128,
  4. window_size=24,
  5. pred_horizon=pred_horizon,
  6. data_style="custom"
  7. )

这个部分是一个数据加载器定义的一个过程,其中我们的data_splits上面讲过了,batch_size就是你往模型里面一次输入的数据长度,window_size是你用多少条数据预测未来一条数据,pred_horizon上面也讲过了,custom是你数据加载器定义的形式这里大家不用理会。 

  1. hid_size = 64
  2. n_layers = 1
  3. num_filters = 3

这三个参数是定义模型的参数,其中hid_size是隐藏层的单元数如果不理解可以看前面提到的LSTM讲解博客,n_layers是其中LSTM的层数,num_filters是TPA注意力机制中卷积的一个形状。 

  1. name = f'{run_name}-TPA-LSTM'
  2. checkpoint_loss_tpalstm = ModelCheckpoint(
  3. dirpath=f"checkpoints/{run_name}/TPA-LSTM",
  4. filename=name,
  5. save_top_k=1,
  6. monitor="val/loss",
  7. mode="min"
  8. )

这一部分是模型保存部分不进行讲解了,大家有兴趣可以自己debug看看就是保存模型文件。

  1. tpalstm_trainer = pl.Trainer(
  2. max_epochs=10,
  3. # accelerator='gpu',
  4. callbacks=[checkpoint_loss_tpalstm],
  5. strategy='auto',
  6. devices=1,
  7. # logger=wandb_logger_tpalstm
  8. )

这一部分定义了一些训练中的参数,其中max_epochs就是训练10轮的意思。

  1. tpa_lstm = TPALSTM(
  2. input_size=num_features,
  3. hidden_size=hid_size,
  4. output_horizon=pred_horizon,
  5. num_filters=num_filters,
  6. obs_len=24,
  7. n_layers=n_layers,
  8. lr=1e-3
  9. )

这一部分就是定义的一些参数前面定义的全部输入到模型里面。

tpalstm_trainer.fit(tpa_lstm, elec_dm)

这个就是模型训练的操作,执行到这里模型就开始训练了。 

预测部分 

上一小节讲解的是训练的过程,现在开始详解预测的过程,代码也是在main.py文件中。

  1. elec_dm.setup("predict")
  2. run_to_load = run_name
  3. model_path = f"checkpoints/{run_to_load}/TPA-LSTM/{name}.ckpt"
  4. tpa_lstm = TPALSTM.load_from_checkpoint(model_path)

我们先选择预测模式,然后下载上一小节训练的模型,

  1. pred_dl = elec_dm.predict_dataloader()
  2. y_pred = tpalstm_trainer.predict(tpa_lstm, pred_dl)

这一部分就是进行预测,其中第一行为数据加载器,如果大家感兴趣可以看看dataset.py文件其中有注释。然后我们调用了前面加载的模型其中的predict方法进行预测 ,运行之后我们的预测结果就保存到了y_pred中了已经。

结果分析 

  1. batch_idx = 0
  2. start = 0
  3. end = 5
  4. for i, batch in enumerate(pred_dl):
  5. if start <= i <= end:
  6. inputs, labels = batch
  7. X, ytrue = inputs[batch_idx][:, -1], labels[batch_idx].squeeze()
  8. ypred = y_pred[i][batch_idx].squeeze()
  9. X = X.cpu().numpy()
  10. ytrue = ytrue.cpu().numpy()
  11. ypred = ypred.cpu().numpy()
  12. plt.figure(figsize=(8, 4))
  13. plt.plot(range(0, 24), X, label="Input")
  14. plt.scatter(range(24, 24 + pred_horizon), ytrue, color='cornflowerblue', label="True-Value")
  15. plt.scatter(range(24, 24 + pred_horizon), ypred, marker="x", color='green', label="TPA-LSTM pred")
  16. plt.legend(loc="lower left")
  17. plt.savefig("preds")
  18. plt.show()
  19. elif i > end:
  20. break

这一部分就是画图功能了,最后我们预测结果全部会以图片的形式输出出来,因为我输入的数据形状是7列这里就生成了七张图片,如下所示->

 总结

 到此本文就全部讲解结束了,希望能够帮助大家,最后推荐几篇我的其它时间序列实战案例

  其它时间序列预测模型的讲解!

时间序列预测模型实战案例(六)深入理解机器学习ARIMA包括差分和相关性分析

时间序列预测模型实战案例(五)基于双向LSTM横向搭配单向LSTM进行回归问题解决

时间序列预测模型实战案例(四)(Xgboost)(Python)(机器学习)图解机制原理实现时间序列预测和分类(附一键运行代码资源下载和代码讲解)

时间序列预测模型实战案例(三)(LSTM)(Python)(深度学习)时间序列预测(包括运行代码以及代码讲解)

【全网首发】(MTS-Mixers)(Python)(Pytorch)最新由华为发布的时间序列预测模型实战案例(一)(包括代码讲解)实现企业级预测精度包括官方代码BUG修复Transform模型

时间序列预测模型实战案例(二)(Holt-Winter)(Python)结合K-折交叉验证进行时间序列预测实现企业级预测精度(包括运行代码以及代码讲解)

如果大家有不懂的也可以评论区留言一些报错什么的大家可以讨论讨论看到我也会给大家解答如何解决!

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/598495
推荐阅读
相关标签
  

闽ICP备14008679号