当前位置:   article > 正文

【数值预测案例】(5) LSTM 时间序列气温数据预测,附TensorFlow完整代码_lstm预测未来七天的数据

lstm预测未来七天的数据

大家好,今天和各位分享一下如何使用循环神经网络 LSTM 完成有多个特征的气温预测。上一节中我介绍了 LSTM 的单个特征的预测,感兴趣的可以看一下:https://blog.csdn.net/dgvv4/article/details/124349963


1. 导入工具包

我使用GPU加速计算,没有GPU的朋友可以把调用GPU的代码段去掉。

  1. import tensorflow as tf
  2. from tensorflow import keras
  3. from tensorflow.keras import layers
  4. import pandas as pd
  5. import numpy as np
  6. import matplotlib.pyplot as plt
  7. # 调用GPU加速
  8. gpus = tf.config.experimental.list_physical_devices(device_type='GPU')
  9. for gpu in gpus:
  10. tf.config.experimental.set_memory_growth(gpu, True)

2. 读取数据集

数据集地址:https://pan.baidu.com/s/1E5h-imMwdIyPv1Zc7FfC9Q   提取码:9cb5 

该数据集10分钟记录一次,有42w行数据,14列特征,选取除时间列以外的前10列特征用于本模型。使用pandas的绘图方法绘制特征随时间的变化曲线。

  1. #(1)读取数据集
  2. filepath = 'D:/deeplearning/test/神经网络/循环神经网络/climate.csv'
  3. data = pd.read_csv(filepath)
  4. print(data.head()) # 数据是10min记录一次的
  5. #(2)特征选择
  6. # 选择从第1列开始往后的所有行的数据
  7. feat = data.iloc[:, 1:11] # 最后4个特征列不要
  8. date = data.iloc[:, 0] # 获取时间信息
  9. #(3)利用pandas绘图展示每个特征点分布情况
  10. feat.plot(subplots=True, figsize=(80,10), # 为每一列单独开辟子图,设置画板大小
  11. layout=(5,2), title='climate features') # 14张图的排序方式,设置标题

数据集信息如下

绘制除时间特征DateTime列以外的后10列的特征数据的随时间变化的曲线


3. 数据预处理

由于数据量较大,全部用于训练可能会导致内存占用不足的报错,这里就取前2w个数据用于训练。求训练集中,每个特征列的均值和标准差对整个数据集使用训练集的均值和标准差进行标准化预处理以标准化后的气温数据作为标签

  1. #(4)特征数据预处理
  2. train_num = 20000 # 取前2w组数据用于训练
  3. val_num = 23000 # 取2w-2.3w的数据用于验证
  4. # 2.3w-2.5w的数据用于验证用于测试
  5. # 求训练集的每个特征列的均值和标准差
  6. feat_mean = feat[:train_num].mean(axis=0)
  7. feat_std = feat[:train_num].std(axis=0)
  8. # 对整个数据集计算标准差
  9. feat = (feat - feat_mean) / feat_std
  10. # 保存所有的气温数据,即标签数据
  11. targets = feat.iloc[:,1] # 取标准化之后的气温数据作为标签值

4. 时间序列函数提取特征和标签

通过一个滑动窗口在数据集上移动,例如使用当前10个特征的20行数据预测未来某一时间点/段的气温。任务要求使用连续5天的数据预测下一个时间点的气温值,数据是10min记录一次的。

对某一时间点的预测:五天一共有5*24*6=720个数据,窗口每次滑动一步,第一次滑动窗口范围 range(0, 720, 1),预测第720个气温。第二次滑动窗口范围 range(1,721,1),预测第721个气温。range()取值顾头不顾尾

对某一时间段的预测:由于数据集是10min记录一次的,两两数据行之间的差别很小,可以设置一个步长每隔60min取一次特征数据第一次滑动窗口范围 range(0, 720, 6)预测下一整天的每个小时的气温数据,即 range(720, 720+24*6, 6)。第二次滑动窗口范围 range(1,721,6),预测下一天的小时气温 range(721, 721+24*6, 6)

这里就预测某一时间点的数据,参数如下,可以自行修改

  1. '''
  2. dataset 代表特征数据
  3. start_index 代表从数据的第几个索引值开始取
  4. history_size 滑动窗口大小
  5. end_index 代表数据取到哪个索引就结束
  6. target_size 代表预测未来某一时间点还是时间段的气温。例如target_size=0代表用前20个特征预测第21个的气温
  7. step 代表在滑动窗口中每隔多少步取一组特征
  8. point_time 布尔类型,用来表示预测未来某一时间点的气温,还是时间段的气温
  9. true 原始气温数据的所有标签值
  10. '''
  11. def TimeSeries(dataset, start_index, history_size, end_index, step,
  12. target_size, point_time, true):
  13. data = [] # 保存特征数据
  14. labels = [] # 保存特征数据对应的标签值
  15. start_index = start_index + history_size # 第一次的取值范围[0:start_index]
  16. # 如果没有指定滑动窗口取到哪个结束,那就取到最后
  17. if end_index is None:
  18. # 数据集最后一块是用来作为标签值的,特征不能取到底
  19. end_index = len(dataset) - target_size
  20. # 滑动窗口的起始位置到终止位置每次移动一步
  21. for i in range(start_index, end_index):
  22. # 滑窗中的值不全部取出来用,每隔60min取一次
  23. index = range(i-history_size, i, step) # 第一次相当于range(0, start_index, 6)
  24. # 根据索引取出所有的特征数据的指定行
  25. data.append(dataset.iloc[index])
  26. # 用这些特征来预测某一个时间点的值还是未来某一时间段的值
  27. if point_time is True: # 预测某一个时间点
  28. # 预测未来哪个时间点的数据,例如[0:20]的特征数据(20取不到),来预测第20个的标签值
  29. labels.append(true[i+target_size])
  30. else: # 预测未来某一时间区间
  31. # 例如[0:20]的特征数据(20取不到),来预测[20,20+target_size]数据区间的标签值
  32. labels.append(true[i:i+target_size])
  33. # 返回划分好了的时间序列特征及其对应的标签值
  34. return np.array(data), np.array(labels)

5. 划分数据集

使用上面的时间序列函数获取训练所需的特征值和标签值。这里以预测下一个时间点的气温值为例,history_size 指定时间序列窗口的大小,即用多少行数据来预测一个时间点的气温值;target_size 代表未来哪个时间点的值,为0代表,如range(0,720,1)的特征用来预测第720+0个时间点的气温值。point_time=False时代表预测某一时间段

  1. #(6)划分数据集
  2. history_size = 5*24*6 # 每个滑窗取5天的数据量=720
  3. target_size = 0 # 预测未来下一个时间点的气温值
  4. step = 1 # 步长为1取所有的行
  5. # 构造训练集
  6. x_train, y_train = TimeSeries(dataset=feat, start_index=0, history_size=history_size, end_index=train_num,
  7. step=step, target_size=target_size, point_time=True, true=targets)
  8. # 构造验证集
  9. x_val, y_val = TimeSeries(dataset=feat, start_index=train_num, history_size=history_size, end_index=val_num,
  10. step=step, target_size=target_size, point_time=True, true=targets)
  11. # 构造测试集
  12. x_test, y_test = TimeSeries(dataset=feat, start_index=val_num, history_size=history_size, end_index=25000,
  13. step=step, target_size=target_size, point_time=True, true=targets)
  14. # 查看数据集信息
  15. print('x_train_shape:', x_train.shape) # (19280, 720, 10)
  16. print('y_train_shape:', y_train.shape) # (19280,)

6. 构造数据集

将划分好了的特征值和标签值转为tensor类型,对训练集的特征行随机打乱shuffle(),并且每次迭代时每个step训练batchsize=128组数据。设置迭代器 iter()从数据集中取出一个batch的数据 next()标签值y_train代表滑动窗口的每720行特征数据对应1个标签气温值

  1. #(7)构造数据集
  2. train_ds = tf.data.Dataset.from_tensor_slices((x_train, y_train)) # 训练集
  3. train_ds = train_ds.batch(128).shuffle(10000) # 随机打乱、每个step处理128组数据
  4. val_ds = tf.data.Dataset.from_tensor_slices((x_val, y_val)) # 验证集
  5. val_ds = val_ds.batch(128)
  6. test_ds = tf.data.Dataset.from_tensor_slices((x_test, y_test)) # 测试集
  7. test_ds = test_ds.batch(128)
  8. # 查看数据集信息
  9. sample = next(iter(train_ds)) # 取出一个batch的数据
  10. print('x_train.shape:', sample[0].shape) # [128, 720, 10]
  11. print('y_train.shape:', sample[1].shape) # [128, ]

7. 模型构建

接下来就是自定义LSTM网络,这个无所谓想怎么搭都行,要注意的时 layers.LSTM() 层中有一个参数 return_sequences代表返回输出序列中的最后一个值,还是所有值。默认False一般是下一层还是 LSTM 的时候才用 return_sequences=True

  1. #(8)模型构建
  2. inputs_shape = sample[0].shape[1:] # [120,10] 不需要写batch的维度大小
  3. inputs = keras.Input(shape=inputs_shape) # 输入层
  4. # LSTM层,设置l2正则化
  5. x = layers.LSTM(units=8, dropout=0.5, return_sequences=True, kernel_regularizer=tf.keras.regularizers.l2(0.01))(inputs)
  6. x = layers.LeakyReLU()(x)
  7. x = layers.LSTM(units=16, dropout=0.5, return_sequences=True, kernel_regularizer=tf.keras.regularizers.l2(0.01))(inputs)
  8. x = layers.LeakyReLU()(x)
  9. x = layers.LSTM(units=32, dropout=0.5, kernel_regularizer=tf.keras.regularizers.l2(0.01))(x)
  10. x = layers.LeakyReLU()(x)
  11. # 全连接层,随即正态分布的权重初始化,l2正则化
  12. x = layers.Dense(64,kernel_initializer='random_normal',kernel_regularizer=tf.keras.regularizers.l2(0.01))(x)
  13. x = layers.Dropout(0.5)(x)
  14. # 输出层返回回归计算后的未来某一时间点的气温值
  15. outputs = layers.Dense(1)(x) # 标签shape要和网络shape一样
  16. # 构建模型
  17. model = keras.Model(inputs, outputs)
  18. # 查看网络结构
  19. model.summary()

网络结构如下

  1. _________________________________________________________________
  2. Layer (type) Output Shape Param #
  3. =================================================================
  4. input_3 (InputLayer) [(None, 720, 10)] 0
  5. _________________________________________________________________
  6. lstm_7 (LSTM) (None, 720, 16) 1728
  7. _________________________________________________________________
  8. leaky_re_lu_7 (LeakyReLU) (None, 720, 16) 0
  9. _________________________________________________________________
  10. lstm_8 (LSTM) (None, 32) 6272
  11. _________________________________________________________________
  12. leaky_re_lu_8 (LeakyReLU) (None, 32) 0
  13. _________________________________________________________________
  14. dense_4 (Dense) (None, 64) 2112
  15. _________________________________________________________________
  16. dropout_2 (Dropout) (None, 64) 0
  17. _________________________________________________________________
  18. dense_5 (Dense) (None, 1) 65
  19. =================================================================
  20. Total params: 10,177
  21. Trainable params: 10,177
  22. Non-trainable params: 0
  23. _________________________________________________________________

8.网络训练

使用平均绝对误差作为回归损失函数,训练完成后对整个测试集评估.evaluate(),计算整个测试集的损失。

  1. # 网络编译
  2. model.compile(optimizer = keras.optimizers.Adam(0.001), # adam优化器学习率0.001
  3. loss = tf.keras.losses.MeanAbsoluteError()) # 计算标签和预测之间绝对差异的平均值
  4. epochs = 15 # 网络迭代次数
  5. # 网络训练
  6. history = model.fit(train_ds, epochs=epochs, validation_data=val_ds)
  7. # 测试集评价
  8. model.evaluate(test_ds) # loss: 0.1212

训练过程如下:

  1. Epoch 1/15
  2. 151/151 [==============================] - 11s 60ms/step - loss: 0.8529 - val_loss: 0.4423
  3. Epoch 2/15
  4. 151/151 [==============================] - 9s 56ms/step - loss: 0.3999 - val_loss: 0.2660
  5. ------------------------------------------
  6. ------------------------------------------
  7. Epoch 14/15
  8. 151/151 [==============================] - 9s 56ms/step - loss: 0.1879 - val_loss: 0.1442
  9. Epoch 15/15
  10. 151/151 [==============================] - 9s 56ms/step - loss: 0.1831 - val_loss: 0.1254

9. 训练过程可视化

history 中保存了网络训练过程的所有指标,这里只使用了平均绝对误差损失,将损失指标随着每次迭代的变化曲线绘制出来。

  1. #(10)查看训练信息
  2. history_dict = history.history # 获取训练的数据字典
  3. train_loss = history_dict['loss'] # 训练集损失
  4. val_loss = history_dict['val_loss'] # 验证集损失
  5. #(11)绘制训练损失和验证损失
  6. plt.figure()
  7. plt.plot(range(epochs), train_loss, label='train_loss') # 训练集损失
  8. plt.plot(range(epochs), val_loss, label='val_loss') # 验证集损失
  9. plt.legend() # 显示标签
  10. plt.xlabel('epochs')
  11. plt.ylabel('loss')
  12. plt.show()


10. 预测阶段

为了绘图清晰,只对测试集的前200组特征(每一组有720行10列,720代表一个滑窗大小,10代表特征列个数)进行预测,使用.predict()函数 得到每组对应下一时刻的气温预测值。

  1. #(12)预测阶段
  2. # x_test[0].shape = (720,10)
  3. x_predict = x_test[:200] # 用测试集的前200组特征数据来预测
  4. y_true = y_test[:200] # 每组特征对应的标签值
  5. y_predict = model.predict(x_predict) # 对测试集的特征预测
  6. # 绘制标准化后的气温曲线图
  7. fig = plt.figure(figsize=(10,5)) # 画板大小
  8. axes = fig.add_subplot(111) # 画板上添加一张图
  9. # 真实值, date_test是对应的时间
  10. axes.plot(y_true, 'bo', label='actual')
  11. # 预测值,红色散点
  12. axes.plot(y_predict, 'ro', label='predict')
  13. plt.legend() # 注释
  14. plt.grid() # 网格
  15. plt.show()

预测值和真实值的对比如下

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号