赞
踩
本篇文章给大家带来的是利用我个人编写的架构进行TCN-LSTM时间序列卷积进行时间序列建模(专门为了时间序列领域新人编写的架构,简单不同于市面上用GPT写的代码),包括结果可视化、支持单元预测、多元预测、模型拟合效果检测、预测未知数据、以及滚动长期预测功能。该结构是一个通用架构任何模型嵌入其中都可运行。下面来介绍一下TCN时间序列卷积的基本原理:时间序列卷积(Temporal Convolutional Network, TCN)通过一系列卷积层处理数据,每个层都能捕捉到不同时间范围内的模式。LSTM作为多元预测机制和单元预测机制的优点是可以处理序列数据中的长期依赖关系,从而可以捕捉到数据中的复杂模式和规律。它可以自适应地学习和调整模型参数,从而提高模型的预测性能和泛化能力。
预测功能效果展示(不是测试集是预测未知数据)->
损失截图(损失绘图功能已补上运行即可显示)->
根据损失来看模型的拟合效果还是很好的,但后面还是做了检验模型拟合效果的功能让大家真正的评估模型的效果。
检验模型拟合情况->
(从下面的图片可以看出模型拟合的情况很好,同时比上一篇博客单独用TCN的效果要好)
目录
TCN,即Temporal Convolutional Network,是一种专门用于时间序列数据处理的神经网络架构。TCN的关键特点包括:
1. 因果卷积:TCN使用因果卷积来确保在预测未来值时,只会使用当前和过去的信息,而不会出现信息泄露。
2. 扩张卷积:通过扩张卷积,TCN可以在不丢失时间分辨率的情况下增加感受野(即模型可以观察到的历史信息范围)。扩张卷积通过间隔地应用卷积核来实现。
3. 无偏移填充:为了保持输出的时间长度与输入相同,TCN在卷积操作前使用了一种特殊的填充方式。
下图是时间序列卷积的示意图
下面我来分别介绍这几种机制->
什么是因果卷积?首先我们来确定这个问题
此操作生成和它们是无关的,应该在将输出传递到下一层之前删除。
TCN有两个基本原则:
为了达到第一点,TCN利用了第二点,TCN利用了因果卷积。1D FCN ( Fully Convolutional Network)
扩张卷积的工作原理
增加感受野:在标准的卷积中,卷积核覆盖的区域是连续的。扩张卷积通过在卷积核的各个元素之间插入空格(称为“扩张”)来扩大其覆盖区域。例如,一个扩张率为2的3x3卷积核实际上会覆盖一个5x5的区域,但只使用9个权重。
保持时间分辨率:与池化操作不同,扩张卷积不会减少数据的时间维度。这意味着输出数据在时间上的分辨率保持不变,这对于时间序列分析和音频处理等领域至关重要。
间隔应用:扩张卷积通过间隔地应用卷积核来实现其效果。这种间隔方式意味着卷积核可以跨越更大的区域,而不是只聚焦于紧邻的输入单元。
扩张卷积在TCN中的应用
在时间卷积网络(TCN)中,扩张卷积允许模型有效地处理长时间序列。通过增大感受野,TCN可以捕捉到更长范围内的依赖关系,这对于许多序列预测任务(如语音识别、自然语言处理等)非常有用。此外,扩张卷积的使用使得TCN在处理长序列时计算效率更高,因为它避免了重复计算和不必要的参数增加。
无偏移填充在时间卷积网络(TCN)中的使用是为了保持输出序列的时间长度与输入序列相同,从而允许模型在处理序列数据时保持时间对齐。在传统的卷积操作中,通常会因为卷积核覆盖的范围而导致输出序列的长度减少。为了解决这个问题,TCN采用了无偏移填充的策略。
无偏移填充(Zero Padding)的工作原理
填充操作:无偏移填充是指在输入序列的开始部分添加适量的零值,以使得卷积操作后的输出序列长度不减少。这种填充方式通常用于时间序列的处理中,确保经过卷积后,时间维度上的长度保持不变。
保持时间对齐:在处理时间序列数据时,保持时间上的对齐非常重要,尤其是在预测未来事件或者在时间序列上做分类任务时。无偏移填充确保了输入和输出在时间维度上保持对齐。
防止信息丢失:在没有填充的情况下,卷积操作可能会导致序列边缘的信息丢失,因为卷积核无法完全覆盖这些区域。通过使用无偏移填充,可以保证序列的每个部分都被卷积核等同地处理。
在TCN中的应用
在TCN中,无偏移填充通常与扩张卷积结合使用。通过在卷积层之前适当地添加零值,可以保证即使在使用较大扩张率的情况下,输出序列的长度也与输入序列的长度相同。这样不仅保留了时间序列数据的完整性,还允许模型捕捉到长距离的依赖关系,提高模型对时间序列数据的处理能力。
LSTM通过刻意的设计来实现学习序列关系的同时,又能够避免长期依赖的问题。它的结构示意图如下所示。
在LSTM的结构示意图中,每一条黑线传输着一整个向量,从一个节点的输出到其他节点的输入。其中“+”号代表着运算操作(如矢量的和),而矩形代表着学习到的神经网络层。汇合在一起的线表示向量的连接,分叉的线表示内容被复制,然后分发到不同的位置。
如果上面的LSTM结构图你看着很难理解,但是其实LSTM的本质就是一个带有tanh激活函数的简单RNN,如下图所示。
LSTM这种结构的原理是引入一个称为细胞状态的连接。这个状态细胞用来存放想要的记忆的东西(对应简单LSTM结构中的h,只不过这里面不再只保存上一次状态了,而是通过网络学习存放那些有用的状态),同时在加入三个门,分别是。
忘记门:决定什么时候将以前的状态忘记。
输入门:决定什么时候将新的状态加进来。
输出门:决定什么时候需要把状态和输入放在一起输出。
从字面上可以看出,由于三个门的操作,LSTM在状态的更新和状态是否要作为输入,全部交给了神经网络的训练机制来选择。
下面分别来介绍一下三个门的结构和作用->
下图所示为忘记门的操作,忘记门决定模型会从细胞状态中丢弃什么信息。
忘记门会读取前一序列模型的输出和当前模型的输入来控制细胞状态中的每个数是否保留。
例如:在一个语言模型的例子中,假设细胞状态会包含当前主语的性别,于是根据这个状态便可以选择正确的代词。当我们看到新的主语时,应该把新的主语在记忆中更新。忘记们的功能就是先去记忆中找到一千那个旧的主语(并没有真正执行忘记的操作,只是找到而已。
在上图的LSTM的忘记门中,代表忘记门的输出, α代表激活函数,代表忘记门的权重,代表当前模型的输入,代表前一个序列模型的输出,代表忘记门的偏置。
输入门可以分为两部分功能,一部分是找到那些需要更新的细胞状态。另一部分是把需要更新的信息更新到细胞状态里
在上面输入门的结构中,代表要更新的细胞状态,α代表激活函数,代表当前模型的输入,代表前一个序列模型的输出,代表计算的权重,代表计算的偏置,代表使用tanh所创建的新细胞状态,代表计算的权重,代表计算的偏置。
忘记门找到了需要忘掉的信息后,在将它与旧状态相乘,丢弃确定需要丢弃的信息。(如果需要丢弃对应位置权重设置为0),然后,将结果加上 * 使细胞状态获得新的信息。这样就完成了细胞状态的更新,如下图输入门的更新图所示。
再上图LSTM输入门的更新图中,代表忘记门的输出结果, 代表忘记门的输出结果,代表前一个序列模型的细胞状态,代表要更新的细胞状态,代表使用tanh所创建的新细胞状态。
如下图LSTM的输出门结构图所示,在输出门中,通过一个激活函数层(实际使用的是Sigmoid激活函数)来确定哪个部分的信息将输出,接着把细胞状态通过tanh进行处理(得到一个在-1~1的值),并将它和Sigmoid门的输出相乘,得出最终想要输出的那个部分,例如,在语言模型中,假设已经输入了一个代词,便会计算出需要输出一个与该代词相关的信息(词向量)
在LSTM的输出门结构图中,代表要输出的信息,α代表激活函数,代表计算 的权重,代表计算的偏置,代表更新后的细胞状态,代表当前序列模型的输出结果。
本文是实战讲解文章,上面主要是简单讲解了一下网络结构比较具体的流程还是很复杂的涉及到很多的数学计算,下面我们来讲一讲模型的实战内容,第一部分是我利用的数据集。
本文我们用到的数据集是ETTh1.csv,该数据集是一个用于时间序列预测的电力负荷数据集,它是 ETTh 数据集系列中的一个。ETTh 数据集系列通常用于测试和评估时间序列预测模型。以下是 ETTh1.csv
数据集的一些内容:
数据内容:该数据集通常包含有关电力系统的多种变量,如电力负荷、价格、天气情况等。这些变量可以用于预测未来的电力需求或价格。
时间范围和分辨率:数据通常按小时或天记录,涵盖了数月或数年的时间跨度。具体的时间范围和分辨率可能会根据数据集的版本而异。
以下是该数据集的部分截图->
- parser.add_argument('-model', type=str, default='TCN-LSTM', help="模型持续更新")
- parser.add_argument('-window_size', type=int, default=126, help="时间窗口大小, window_size > pre_len")
- parser.add_argument('-pre_len', type=int, default=24, help="预测未来数据长度")
- # data
- parser.add_argument('-shuffle', action='store_true', default=True, help="是否打乱数据加载器中的数据顺序")
- parser.add_argument('-data_path', type=str, default='ETTh1-Test.csv', help="你的数据数据地址")
- parser.add_argument('-target', type=str, default='OT', help='你需要预测的特征列,这个值会最后保存在csv文件里')
- parser.add_argument('-input_size', type=int, default=7, help='你的特征个数不算时间那一列')
- parser.add_argument('-output_size', type=int, default=7, help='输出特征个数只有两种选择和你的输入特征一样即输入多少输出多少,另一种就是多元预测单元')
- parser.add_argument('-feature', type=str, default='M', help='[M, S, MS],多元预测多元,单元预测单元,多元预测单元')
- parser.add_argument('-model_dim', type=list, default=[64, 128, 256], help='这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输'
- '入list中包含三个元素那么我的TCN就是三层,这个根据你的数据复杂度来设置'
- '层数越多对应数据越复杂但是不要超过5层')
-
- # learning
- parser.add_argument('-lr', type=float, default=0.001, help="学习率")
- parser.add_argument('-drop_out', type=float, default=0.05, help="随机丢弃概率,防止过拟合")
- parser.add_argument('-epochs', type=int, default=20, help="训练轮次")
- parser.add_argument('-batch_size', type=int, default=16, help="批次大小")
- parser.add_argument('-save_path', type=str, default='models')
-
- # model
- parser.add_argument('-hidden_size', type=int, default=64, help="隐藏层单元数")
- parser.add_argument('-kernel_sizes', type=int, default=3)
- parser.add_argument('-laryer_num', type=int, default=1)
- # device
- parser.add_argument('-use_gpu', type=bool, default=True)
- parser.add_argument('-device', type=int, default=0, help="只设置最多支持单个gpu训练")
-
- # option
- parser.add_argument('-train', type=bool, default=True)
- parser.add_argument('-test', type=bool, default=True)
- parser.add_argument('-predict', type=bool, default=True)
- parser.add_argument('-inspect_fit', type=bool, default=True)
- parser.add_argument('-lr-scheduler', type=bool, default=True)
为了大家方便理解,文章中的参数设置我都用的中文,所以大家应该能够更好的理解。下面我在进行一遍讲解。
参数名称 | 参数类型 | 参数讲解 | |
---|---|---|---|
1 | model | str | 模型名称 |
2 | window_size | int | 时间窗口大小,用多少条数据去预测未来的数据 |
3 | pre_len | int | 预测多少条未来的数据 |
4 | shuffle | store_true | 是否打乱输入dataloader中的数据,不是数据的顺序 |
5 | data_path | str | 你输入数据的地址 |
6 | target | str | 你想要预测的特征列 |
7 | input_size | int | 输入的特征数不包含时间那一列!!! |
8 | output_size | int | 输出的特征数只可以是1或者是等于你输入的特征数 |
9 | feature | str | [M, S, MS],多元预测多元,单元预测单元,多元预测单元 |
10 | model_dim | list | 这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输入list中包含三个元素那么我的TCN就是三层,这个根据你的数据复杂度来设置层数越多对应数据越复杂但是不要超过5层!!!!重点部分 |
11 | lr | float | 学习率大小 |
12 | drop_out | float | 丢弃概率 |
13 | epochs | int | 训练轮次 |
14 | batch_size | int | 批次大小 |
15 | svae_path | str | 模型的保存路径 |
16 | hidden_size | int | 隐藏层大小 |
17 | kernel_size | int | 卷积核大小 |
18 | layer_num | int | lstm层数 |
19 | use_gpu | bool | 是否使用GPU |
20 | device | int | GPU编号 |
21 | train | bool | 是否进行训练 |
22 | test | bool | 是否进行测试 |
23 | predict | bool | 是否进行预测 |
24 | inspect_fit | bool | 是否进行检验模型 |
25 | lr_schduler | bool | 是否使用学习率计划 |
复制粘贴到一个文件下并且按照上面的从参数讲解配置好参数即可运行~(极其适合新手和刚入门的读者)
- import argparse
- import time
-
- import numpy as np
- import pandas as pd
- import torch
- import torch.nn as nn
- from matplotlib import pyplot as plt
- from torch.nn.utils import weight_norm
- from torch.utils.data import DataLoader
- from torch.utils.data import Dataset
- from tqdm import tqdm
-
- # 随机数种子
- np.random.seed(0)
-
-
- class StandardScaler():
- def __init__(self):
- self.mean = 0.
- self.std = 1.
-
- def fit(self, data):
- self.mean = data.mean(0)
- self.std = data.std(0)
-
- def transform(self, data):
- mean = torch.from_numpy(self.mean).type_as(data).to(data.device) if torch.is_tensor(data) else self.mean
- std = torch.from_numpy(self.std).type_as(data).to(data.device) if torch.is_tensor(data) else self.std
- return (data - mean) / std
-
- def inverse_transform(self, data):
- mean = torch.from_numpy(self.mean).type_as(data).to(data.device) if torch.is_tensor(data) else self.mean
- std = torch.from_numpy(self.std).type_as(data).to(data.device) if torch.is_tensor(data) else self.std
- if data.shape[-1] != mean.shape[-1]:
- mean = mean[-1:]
- std = std[-1:]
- return (data * std) + mean
-
-
- def plot_loss_data(data):
- # 使用Matplotlib绘制线图
- plt.figure()
-
- plt.plot(data, marker='o')
-
- # 添加标题
- plt.title("loss results Plot")
-
- # 显示图例
- plt.legend(["Loss"])
-
- plt.show()
-
-
- class TimeSeriesDataset(Dataset):
- def __init__(self, sequences):
- self.sequences = sequences
-
- def __len__(self):
- return len(self.sequences)
-
- def __getitem__(self, index):
- sequence, label = self.sequences[index]
- return torch.Tensor(sequence), torch.Tensor(label)
-
-
- def create_inout_sequences(input_data, tw, pre_len, config):
- # 创建时间序列数据专用的数据分割器
- inout_seq = []
- L = len(input_data)
- for i in range(L - tw):
- train_seq = input_data[i:i + tw]
- if (i + tw + pre_len) > len(input_data):
- break
- if config.feature == 'MS':
- train_label = input_data[:, -1:][i + tw:i + tw + pre_len]
- else:
- train_label = input_data[i + tw:i + tw + pre_len]
- inout_seq.append((train_seq, train_label))
- return inout_seq
-
-
- def calculate_mae(y_true, y_pred):
- # 平均绝对误差
- mae = np.mean(np.abs(y_true - y_pred))
- return mae
-
-
- def create_dataloader(config, device):
- print(">>>>>>>>>>>>>>>>>>>>>>>>>>>>创建数据加载器<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- df = pd.read_csv(config.data_path) # 填你自己的数据地址,自动选取你最后一列数据为特征列 # 添加你想要预测的特征列
- pre_len = config.pre_len # 预测未来数据的长度
- train_window = config.window_size # 观测窗口
-
- # 将特征列移到末尾
- target_data = df[[config.target]]
- df = df.drop(config.target, axis=1)
- df = pd.concat((df, target_data), axis=1)
-
- cols_data = df.columns[1:]
- df_data = df[cols_data]
-
- # 这里加一些数据的预处理, 最后需要的格式是pd.series
- true_data = df_data.values
-
- # 定义标准化优化器
- # 定义标准化优化器
- scaler = StandardScaler()
- scaler.fit(true_data)
-
- train_data = true_data[int(0.3 * len(true_data)):]
- valid_data = true_data[int(0.15 * len(true_data)):int(0.30 * len(true_data))]
- test_data = true_data[:int(0.15 * len(true_data))]
- print("训练集尺寸:", len(train_data), "测试集尺寸:", len(test_data), "验证集尺寸:", len(valid_data))
-
- # 进行标准化处理
- train_data_normalized = scaler.transform(train_data)
- test_data_normalized = scaler.transform(test_data)
- valid_data_normalized = scaler.transform(valid_data)
-
- # 转化为深度学习模型需要的类型Tensor
- train_data_normalized = torch.FloatTensor(train_data_normalized).to(device)
- test_data_normalized = torch.FloatTensor(test_data_normalized).to(device)
- valid_data_normalized = torch.FloatTensor(valid_data_normalized).to(device)
-
- # 定义训练器的的输入
- train_inout_seq = create_inout_sequences(train_data_normalized, train_window, pre_len, config)
- test_inout_seq = create_inout_sequences(test_data_normalized, train_window, pre_len, config)
- valid_inout_seq = create_inout_sequences(valid_data_normalized, train_window, pre_len, config)
-
- # 创建数据集
- train_dataset = TimeSeriesDataset(train_inout_seq)
- test_dataset = TimeSeriesDataset(test_inout_seq)
- valid_dataset = TimeSeriesDataset(valid_inout_seq)
-
- # 创建 DataLoader
- train_loader = DataLoader(train_dataset, batch_size=args.batch_size, shuffle=True, drop_last=True)
- test_loader = DataLoader(test_dataset, batch_size=args.batch_size, shuffle=False, drop_last=True)
- valid_loader = DataLoader(valid_dataset, batch_size=args.batch_size, shuffle=False, drop_last=True)
-
- print("通过滑动窗口共有训练集数据:", len(train_inout_seq), "转化为批次数据:", len(train_loader))
- print("通过滑动窗口共有测试集数据:", len(test_inout_seq), "转化为批次数据:", len(test_loader))
- print("通过滑动窗口共有验证集数据:", len(valid_inout_seq), "转化为批次数据:", len(valid_loader))
- print(">>>>>>>>>>>>>>>>>>>>>>>>>>>>创建数据加载器完成<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- return train_loader, test_loader, valid_loader, scaler
-
-
- class Chomp1d(nn.Module):
- def __init__(self, chomp_size):
- super(Chomp1d, self).__init__()
- self.chomp_size = chomp_size
-
- def forward(self, x):
- return x[:, :, :-self.chomp_size].contiguous()
-
-
- class TemporalBlock(nn.Module):
- def __init__(self, n_inputs, n_outputs, kernel_size, stride, dilation, padding, dropout=0.2):
- super(TemporalBlock, self).__init__()
- self.conv1 = weight_norm(nn.Conv1d(n_inputs, n_outputs, kernel_size,
- stride=stride, padding=padding, dilation=dilation))
- self.chomp1 = Chomp1d(padding)
- self.relu1 = nn.ReLU()
- self.dropout1 = nn.Dropout(dropout)
-
- self.conv2 = weight_norm(nn.Conv1d(n_outputs, n_outputs, kernel_size,
- stride=stride, padding=padding, dilation=dilation))
- self.chomp2 = Chomp1d(padding)
- self.relu2 = nn.ReLU()
- self.dropout2 = nn.Dropout(dropout)
-
- self.net = nn.Sequential(self.conv1, self.chomp1, self.relu1, self.dropout1,
- self.conv2, self.chomp2, self.relu2, self.dropout2)
- self.downsample = nn.Conv1d(n_inputs, n_outputs, 1) if n_inputs != n_outputs else None
- self.relu = nn.ReLU()
- self.init_weights()
-
- def init_weights(self):
- self.conv1.weight.data.normal_(0, 0.01)
- self.conv2.weight.data.normal_(0, 0.01)
- if self.downsample is not None:
- self.downsample.weight.data.normal_(0, 0.01)
-
- def forward(self, x):
- out = self.net(x)
- res = x if self.downsample is None else self.downsample(x)
- return self.relu(out + res)
-
-
- class TemporalConvNet(nn.Module):
- def __init__(self, num_inputs, outputs, pre_len, num_channels, n_layers, kernel_size=2, dropout=0.2):
- super(TemporalConvNet, self).__init__()
- layers = []
- self.pre_len = pre_len
- self.n_layers = n_layers
- self.hidden_size = num_channels[-2]
- self.hidden = nn.Linear(num_channels[-1], num_channels[-2])
- self.relu = nn.ReLU()
- self.lstm = nn.LSTM(self.hidden_size, self.hidden_size, n_layers, bias=True,
- batch_first=True) # output (batch_size, obs_len, hidden_size)
- num_levels = len(num_channels)
- for i in range(num_levels):
- dilation_size = 2 ** i
- in_channels = num_inputs if i == 0 else num_channels[i - 1]
- out_channels = num_channels[i]
- layers += [TemporalBlock(in_channels, out_channels, kernel_size, stride=1, dilation=dilation_size,
- padding=(kernel_size - 1) * dilation_size, dropout=dropout)]
-
- self.network = nn.Sequential(*layers)
- self.linear = nn.Linear(num_channels[-2], outputs)
-
- def forward(self, x):
- x = x.permute(0, 2, 1)
- x = self.network(x)
- x = x.permute(0, 2, 1)
-
- batch_size, obs_len, features_size = x.shape # (batch_size, obs_len, features_size)
- xconcat = self.hidden(x) # (batch_size, obs_len, hidden_size)
- H = torch.zeros(batch_size, obs_len - 1, self.hidden_size).to(device) # (batch_size, obs_len-1, hidden_size)
- ht = torch.zeros(self.n_layers, batch_size, self.hidden_size).to(
- device) # (num_layers, batch_size, hidden_size)
- ct = ht.clone()
- for t in range(obs_len):
- xt = xconcat[:, t, :].view(batch_size, 1, -1) # (batch_size, 1, hidden_size)
- out, (ht, ct) = self.lstm(xt, (ht, ct)) # ht size (num_layers, batch_size, hidden_size)
- htt = ht[-1, :, :] # (batch_size, hidden_size)
- if t != obs_len - 1:
- H[:, t, :] = htt
- H = self.relu(H) # (batch_size, obs_len-1, hidden_size)
-
- x = self.linear(H)
- return x[:, -self.pre_len:, :]
-
-
- def train(model, args, scaler, device):
- start_time = time.time() # 计算起始时间
- model = model
- loss_function = nn.MSELoss()
- optimizer = torch.optim.Adam(model.parameters(), lr=0.005)
- epochs = args.epochs
- model.train() # 训练模式
- results_loss = []
- for i in tqdm(range(epochs)):
- losss = []
- for seq, labels in train_loader:
- optimizer.zero_grad()
-
- y_pred = model(seq)
-
- single_loss = loss_function(y_pred, labels)
-
- single_loss.backward()
-
- optimizer.step()
- losss.append(single_loss.detach().cpu().numpy())
- tqdm.write(f"\t Epoch {i + 1} / {epochs}, Loss: {sum(losss) / len(losss)}")
- results_loss.append(sum(losss) / len(losss))
-
-
- torch.save(model.state_dict(), 'save_model.pth')
- time.sleep(0.1)
-
- # valid_loss = valid(model, args, scaler, valid_loader)
- # 尚未引入学习率计划后期补上
- # 保存模型
-
- print(f">>>>>>>>>>>>>>>>>>>>>>模型已保存,用时:{(time.time() - start_time) / 60:.4f} min<<<<<<<<<<<<<<<<<<")
- plot_loss_data(results_loss)
-
-
- def valid(model, args, scaler, valid_loader):
- lstm_model = model
- # 加载模型进行预测
- lstm_model.load_state_dict(torch.load('save_model.pth'))
- lstm_model.eval() # 评估模式
- losss = []
-
- for seq, labels in valid_loader:
- pred = lstm_model(seq)
- mae = calculate_mae(pred.detach().numpy().cpu(), np.array(labels.detach().cpu())) # MAE误差计算绝对值(预测值 - 真实值)
- losss.append(mae)
-
- print("验证集误差MAE:", losss)
- return sum(losss) / len(losss)
-
-
- def test(model, args, test_loader, scaler):
- # 加载模型进行预测
- losss = []
- model = model
- model.load_state_dict(torch.load('save_model.pth'))
- model.eval() # 评估模式
- results = []
- labels = []
- for seq, label in test_loader:
- pred = model(seq)
- mae = calculate_mae(pred.detach().cpu().numpy(),
- np.array(label.detach().cpu())) # MAE误差计算绝对值(预测值 - 真实值)
- losss.append(mae)
- pred = pred[:, 0, :]
- label = label[:, 0, :]
- pred = scaler.inverse_transform(pred.detach().cpu().numpy())
- label = scaler.inverse_transform(label.detach().cpu().numpy())
- for i in range(len(pred)):
- results.append(pred[i][-1])
- labels.append(label[i][-1])
-
- print("测试集误差MAE:", losss)
- # 绘制历史数据
- plt.plot(labels, label='TrueValue')
-
- # 绘制预测数据
- # 注意这里预测数据的起始x坐标是历史数据的最后一个点的x坐标
- plt.plot(results, label='Prediction')
-
- # 添加标题和图例
- plt.title("test state")
- plt.legend()
- plt.show()
-
-
- # 检验模型拟合情况
- def inspect_model_fit(model, args, train_loader, scaler):
- model = model
- model.load_state_dict(torch.load('save_model.pth'))
- model.eval() # 评估模式
- results = []
- labels = []
-
- for seq, label in train_loader:
- pred = model(seq)[:, 0, :]
- label = label[:, 0, :]
- pred = scaler.inverse_transform(pred.detach().cpu().numpy())
- label = scaler.inverse_transform(label.detach().cpu().numpy())
- for i in range(len(pred)):
- results.append(pred[i][-1])
- labels.append(label[i][-1])
-
- # 绘制历史数据
- plt.plot(labels, label='History')
-
- # 绘制预测数据
- # 注意这里预测数据的起始x坐标是历史数据的最后一个点的x坐标
- plt.plot(results, label='Prediction')
-
- # 添加标题和图例
- plt.title("inspect model fit state")
- plt.legend()
- plt.show()
-
-
- def predict(model, args, device, scaler):
- # 预测未知数据的功能
- df = pd.read_csv(args.data_path)
- df = df.iloc[:, 1:][-args.window_size:].values # 转换为nadarry
- pre_data = scaler.transform(df)
- tensor_pred = torch.FloatTensor(pre_data).to(device)
- tensor_pred = tensor_pred.unsqueeze(0) # 单次预测 , 滚动预测功能暂未开发后期补上
- model = model
- model.load_state_dict(torch.load('save_model.pth'))
- model.eval() # 评估模式
-
- pred = model(tensor_pred)[0]
-
- pred = scaler.inverse_transform(pred.detach().cpu().numpy())
-
- # 假设 df 和 pred 是你的历史和预测数据
-
- # 计算历史数据的长度
- history_length = len(df[:, -1])
-
- # 为历史数据生成x轴坐标
- history_x = range(history_length)
-
- # 为预测数据生成x轴坐标
- # 开始于历史数据的最后一个点的x坐标
- prediction_x = range(history_length - 1, history_length + len(pred[:, -1]) - 1)
-
- # 绘制历史数据
- plt.plot(history_x, df[:, -1], label='History')
-
- # 绘制预测数据
- # 注意这里预测数据的起始x坐标是历史数据的最后一个点的x坐标
- plt.plot(prediction_x, pred[:, -1], marker='o', label='Prediction')
- plt.axvline(history_length - 1, color='red') # 在图像的x位置处画一条红色竖线
- # 添加标题和图例
- plt.title("History and Prediction")
- plt.legend()
-
-
- if __name__ == '__main__':
- parser = argparse.ArgumentParser(description='Time Series forecast')
- parser.add_argument('-model', type=str, default='TCN-LSTM', help="模型持续更新")
- parser.add_argument('-window_size', type=int, default=126, help="时间窗口大小, window_size > pre_len")
- parser.add_argument('-pre_len', type=int, default=24, help="预测未来数据长度")
- # data
- parser.add_argument('-shuffle', action='store_true', default=True, help="是否打乱数据加载器中的数据顺序")
- parser.add_argument('-data_path', type=str, default='ETTh1-Test.csv', help="你的数据数据地址")
- parser.add_argument('-target', type=str, default='OT', help='你需要预测的特征列,这个值会最后保存在csv文件里')
- parser.add_argument('-input_size', type=int, default=7, help='你的特征个数不算时间那一列')
- parser.add_argument('-feature', type=str, default='MS', help='[M, S, MS],多元预测多元,单元预测单元,多元预测单元')
- parser.add_argument('-model_dim', type=list, default=[64, 128, 256], help='这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输'
- '入list中包含三个元素那么我的TCN就是三层,这个根据你的数据复杂度来设置'
- '层数越多对应数据越复杂但是不要超过5层')
-
- # learning
- parser.add_argument('-lr', type=float, default=0.001, help="学习率")
- parser.add_argument('-drop_out', type=float, default=0.05, help="随机丢弃概率,防止过拟合")
- parser.add_argument('-epochs', type=int, default=20, help="训练轮次")
- parser.add_argument('-batch_size', type=int, default=16, help="批次大小")
- parser.add_argument('-save_path', type=str, default='models')
-
- # model
- parser.add_argument('-hidden_size', type=int, default=64, help="隐藏层单元数")
- parser.add_argument('-kernel_sizes', type=int, default=3)
- parser.add_argument('-laryer_num', type=int, default=1)
- # device
- parser.add_argument('-use_gpu', type=bool, default=True)
- parser.add_argument('-device', type=int, default=0, help="只设置最多支持单个gpu训练")
-
- # option
- parser.add_argument('-train', type=bool, default=True)
- parser.add_argument('-test', type=bool, default=True)
- parser.add_argument('-predict', type=bool, default=True)
- parser.add_argument('-inspect_fit', type=bool, default=True)
- parser.add_argument('-lr-scheduler', type=bool, default=True)
- args = parser.parse_args()
-
- if isinstance(args.device, int) and args.use_gpu:
- device = torch.device("cuda:" + f'{args.device}')
- else:
- device = torch.device("cpu")
- print("使用设备:", device)
- train_loader, test_loader, valid_loader, scaler = create_dataloader(args, device)
-
- if args.feature == 'MS' or args.feature == 'S':
- args.output_size = 1
- else:
- args.output_size = args.input_size
-
- # 实例化模型
- try:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始初始化{args.model}模型<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- model = TemporalConvNet(args.input_size, args.output_size, args.pre_len, args.model_dim, args.laryer_num,
- args.kernel_sizes).to(device)
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始初始化{args.model}模型成功<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- except:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始初始化{args.model}模型失败<<<<<<<<<<<<<<<<<<<<<<<<<<<")
-
- # 训练模型
- if args.train:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始{args.model}模型训练<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- train(model, args, scaler, device)
- if args.test:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始{args.model}模型测试<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- test(model, args, test_loader, scaler)
- if args.inspect_fit:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>开始检验{args.model}模型拟合情况<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- inspect_model_fit(model, args, train_loader, scaler)
- if args.predict:
- print(f">>>>>>>>>>>>>>>>>>>>>>>>>预测未来{args.pre_len}条数据<<<<<<<<<<<<<<<<<<<<<<<<<<<")
- predict(model, args, device, scaler)
- plt.show()
我们配置好所有参数之后就可以开始训练模型了,根据我前面讲解的参数部分进行配置,不懂得可以评论区留言。
TCN的预测效果图(这里我只预测了未来24个时间段的值为未来一天的预测值)->
测试集上的表现->
同时我也可以将输出结果用csv文件保存,但是功能还没有做,我在另一篇informer的文章里实习了这个功能大家如果有需要可以评论区留言,有时间我会移植过来。
另一篇文章链接->时间序列预测实战(十九)魔改Informer模型进行滚动长期预测(科研版本,结果可视化)
将滚动预测结果生成了csv文件方便大家对比和评估,以下是我生成的csv文件可以说是非常的直观。
我们可以利用其进行画图从而评估结果->
检验模型拟合情况->
(从下面的图片可以看出模型拟合的情况很好)
到此本文的正式分享内容就结束了,在这里给大家推荐我的时间序列专栏,本专栏目前为新开的平均质量分98分,后期我会根据各种最新的前沿顶会进行论文复现,也会对一些老的模型进行补充,目前本专栏免费阅读(暂时,大家尽早关注不迷路~),如果大家觉得本文帮助到你了,订阅本专栏,关注后续更多的更新~
如果大家有不懂的也可以评论区留言一些报错什么的大家可以讨论讨论看到我也会给大家解答如何解决!最后希望大家工作顺利学业有成!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。