当前位置:   article > 正文

matlab lstm时间序列预测_lstm时间序列预测_2

matlab timestep

此数据是1949 到 1960 一共 12 年,每年 12 个月的航班乘客数据,一共 144 个数据,单位是 1000。我们使用它来进行LSTM时间序列预测的实验。数据如图所示

0063ba553bc5adfeb8ae954f75d0cdf6.png


第一列为时间 第二列为数据

编写代码

头文件

  1. import numpy
  2. import matplotlib.pyplot as plt
  3. from keras.models import Sequential
  4. from keras.layers import Dense
  5. from keras.layers import LSTM
  6. import pandas as pd
  7. import os
  8. from keras.models import Sequential, load_model

加载数据
在这里我们设置时序数据的前65%为训练数据 后35%为测试数据

  1. dataframe = pd.read_csv('./international-airline-passengers.csv', usecols=[1], engine='python', skipfooter=3)
  2. dataset = dataframe.values
  3. # 将整型变为float
  4. dataset = dataset.astype('float32')
  5. #归一化 在下一步会讲解
  6. scaler = MinMaxScaler(feature_range=(0, 1))
  7. dataset = scaler.fit_transform(dataset)
  8. train_size = int(len(dataset) * 0.65)
  9. trainlist = dataset[:train_size]
  10. testlist = dataset[train_size:]

对数据进行处理
LSTM进行预测需要的是时序数据 根据前timestep步预测后面的数据
假定给一个数据集
{
A,B,C->D
B,C,D->E
C,D,E->F
D,E,F->G
E,F,G->H
}
这时timestep为3,即根据前三个的数据预测后一个数据的值
所以我们需要对数据进行转化
举一个简单的情况 假设一个list为[1,2,3,4,5],timestep = 2
我们转化之后要达到的效果是

train_Xtrain_Y

即依据前两个值预测下一个值


对数据进行归一化
LSTM可以不进行归一化的操作,但是这样会让训练模型的loss下降很慢。本教程如果不进行归一化,100次迭代后loss还是很高

  1. #上面代码的片段讲解
  2. scaler = MinMaxScaler(feature_range=(0, 1))
  3. dataset = scaler.fit_transform(dataset)

对数据进行处理

  1. def create_dataset(dataset, look_back):
  2. #这里的look_back与timestep相同
  3. dataX, dataY = [], []
  4. for i in range(len(dataset)-look_back-1):
  5. a = dataset[i:(i+look_back)]
  6. dataX.append(a)
  7. dataY.append(dataset[i + look_back])
  8. return numpy.array(dataX),numpy.array(dataY)
  9. #训练数据太少 look_back并不能过大
  10. look_back = 1
  11. trainX,trainY = create_dataset(trainlist,look_back)
  12. testX,testY = create_dataset(testlist,look_back)

LSTM模型
LSTM的输入为 [samples, timesteps, features]
这里的timesteps为步数,features为维度 这里我们的数据是1维的

  1. trainX = numpy.reshape(trainX, (trainX.shape[0], trainX.shape[1], 1))
  2. testX = numpy.reshape(testX, (testX.shape[0], testX.shape[1] ,1 ))
  3. # create and fit the LSTM network
  4. model = Sequential()
  5. model.add(LSTM(4, input_shape=(None,1)))
  6. model.add(Dense(1))
  7. model.compile(loss='mean_squared_error', optimizer='adam')
  8. model.fit(trainX, trainY, epochs=100, batch_size=1, verbose=2)
  9. model.save(os.path.join("DATA","Test" + ".h5"))
  10. # make predictions

进行预测

  1. #model = load_model(os.path.join("DATA","Test" + ".h5"))
  2. trainPredict = model.predict(trainX)
  3. testPredict = model.predict(testX)
  4. #反归一化
  5. trainPredict = scaler.inverse_transform(trainPredict)
  6. trainY = scaler.inverse_transform(trainY)
  7. testPredict = scaler.inverse_transform(testPredict)
  8. testY = scaler.inverse_transform(testY)

查看结果

  1. plt.plot(trainY)
  2. plt.plot(trainPredict[1:])
  3. plt.show()
  4. plt.plot(testY)
  5. plt.plot(testPredict[1:])
  6. plt.show()

这个时候我们的结果为

e0ec27c207153edc2e836d546467ed1d.png

091ee9155696b78538fb53e9de52e126.png

参考
用 LSTM 做时间序列预测的一个小例子
Keras中文文档-Sequential model

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/97234
推荐阅读
相关标签
  

闽ICP备14008679号