赞
踩
[n, 2, 1, 7, 1]
CNN-LSTM方法的进一步扩展是对CNN的卷积(例如CNN如何读取输入序列数据)执行LSTM的每个时间步骤。这种组合称为卷积LSTM,简称ConvLSTM,就像cn -LSTM也用于时空数据一样。与为了计算内部状态和状态转换而直接读入数据的LSTM不同,与解释CNN模型输出的cn -LSTM不同,ConvLSTM使用卷积作为直接读入LSTM单元本身的输入的一部分。有关在LSTM单元内如何计算ConvLSTM方程的更多信息,请参阅本文:
卷积LSTM网络:一种用于降水临近预报的机器学习方法,2015。
Keras库提供了ConvLSTM2D类,该类支持针对2D数据的ConvLSTM模型。
它可以配置为一维多变量时间序列预测。ConvLSTM2D类默认情况下期望输入数据具有如下形状:
其中数据的每个时间步长都定义为(行*列)数据点的图像。我们正在处理一个一维的总功耗序列,如果我们假设使用两周的数据作为输入,我们可以将其解释为一行14列。对于ConvLSTM,这将是一次读取:也就是说,LSTM将读取一个14天的时间步长,并在这些时间步长之间执行卷积。这并不理想。相反,我们可以将14天分成两个子序列,子序列的长度为7天。ConvLSTM然后可以跨两个时间步骤读取数据,并对每个时间步骤中的七天数据执行CNN处理。因此,对于所选择的问题框架,ConvLSTM2D的输入为:
[samples, timesteps, rows, cols, channels]
样本:n,表示训练数据集中样本的数量。
时间:2,对于两个子序列,我们将一个14天的窗口分割为。
行:1,表示每个子序列的一维形状。
列:7,表示每个子序列中的七天。
通道:1,对于作为输入的单个特性。
您可以研究其他配置,比如将21天的输入分成三个7天的子序列,并/或提供所有8个特性或通道作为输入。我们现在可以为ConvLSTM2D模型准备数据。首先,我们必须将训练数据集重塑为[样本、时间步长、行、cols、通道]的预期结构。
- # reshape into subsequences [samples, time steps, rows, cols, channels]
- train_x = train_x.reshape((train_x.shape[0], n_steps, 1, n_length, n_features))
然后,我们可以将编码器定义为一个ConvLSTM隐藏层,然后是一个准备解码的平坦层。
- model.add(ConvLSTM2D(filters=64, kernel_size=(1,3), activation='relu', input_shape=(n_steps, 1, n_length, n_features)))
- model.add(Flatten())
我们还将参数化子序列的数量(n_steps)和每个子序列的长度(n_length),并将它们作为参数传递。模型的其余部分和训练是相同的。带有这些更改的build_model()函数如下所示。
- # train the model
- def bu
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。