当前位置:   article > 正文

单变量输入的ConvLSTM编解码器模型。_convlstm模型

convlstm模型
[n, 2, 1, 7, 1]


CNN-LSTM方法的进一步扩展是对CNN的卷积(例如CNN如何读取输入序列数据)执行LSTM的每个时间步骤。这种组合称为卷积LSTM,简称ConvLSTM,就像cn -LSTM也用于时空数据一样。与为了计算内部状态和状态转换而直接读入数据的LSTM不同,与解释CNN模型输出的cn -LSTM不同,ConvLSTM使用卷积作为直接读入LSTM单元本身的输入的一部分。有关在LSTM单元内如何计算ConvLSTM方程的更多信息,请参阅本文:

卷积LSTM网络:一种用于降水临近预报的机器学习方法,2015。
Keras库提供了ConvLSTM2D类,该类支持针对2D数据的ConvLSTM模型。
它可以配置为一维多变量时间序列预测。ConvLSTM2D类默认情况下期望输入数据具有如下形状:

其中数据的每个时间步长都定义为(行*列)数据点的图像。我们正在处理一个一维的总功耗序列,如果我们假设使用两周的数据作为输入,我们可以将其解释为一行14列。对于ConvLSTM,这将是一次读取:也就是说,LSTM将读取一个14天的时间步长,并在这些时间步长之间执行卷积。这并不理想。相反,我们可以将14天分成两个子序列,子序列的长度为7天。ConvLSTM然后可以跨两个时间步骤读取数据,并对每个时间步骤中的七天数据执行CNN处理。因此,对于所选择的问题框架,ConvLSTM2D的输入为:

[samples, timesteps, rows, cols, channels]

 

样本:n,表示训练数据集中样本的数量。
时间:2,对于两个子序列,我们将一个14天的窗口分割为。
行:1,表示每个子序列的一维形状。
列:7,表示每个子序列中的七天。
通道:1,对于作为输入的单个特性。
您可以研究其他配置,比如将21天的输入分成三个7天的子序列,并/或提供所有8个特性或通道作为输入。我们现在可以为ConvLSTM2D模型准备数据。首先,我们必须将训练数据集重塑为[样本、时间步长、行、cols、通道]的预期结构。

  1. # reshape into subsequences [samples, time steps, rows, cols, channels]
  2. train_x = train_x.reshape((train_x.shape[0], n_steps, 1, n_length, n_features))

 然后,我们可以将编码器定义为一个ConvLSTM隐藏层,然后是一个准备解码的平坦层。

  1. model.add(ConvLSTM2D(filters=64, kernel_size=(1,3), activation='relu', input_shape=(n_steps, 1, n_length, n_features)))
  2. model.add(Flatten())

我们还将参数化子序列的数量(n_steps)和每个子序列的长度(n_length),并将它们作为参数传递。模型的其余部分和训练是相同的。带有这些更改的build_model()函数如下所示。

  1. # train the model
  2. def bu
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/219233
推荐阅读
相关标签
  

闽ICP备14008679号