当前位置:   article > 正文

【深度学习】利用深度学习进行时间序列预测

deep learning for time series forecasting jason brownlee

作者 | Christophe Pere 

编译 | VK 

来源 | Towards Datas Science

介绍

长期以来,我听说时间序列问题只能用统计方法(AR[1],AM[2],ARMA[3],ARIMA[4])。这些技术通常被数学家使用,他们试图不断改进这些技术来约束平稳和非平稳的时间序列。

几个月前,我的一个朋友(数学家、统计学教授、非平稳时间序列专家)提出让我研究如何验证和改进重建恒星光照曲线的技术。事实上,开普勒卫星[11]和其他许多卫星一样,无法连续测量附近恒星的光通量强度。开普勒卫星在2009年至2016年间致力于寻找太阳系外的行星,称为太阳系外行星或系外行星。

正如你们所理解的,我们将比我们的行星地球走得更远一点,并利用机器学习进入银河之旅。天体物理学一直是我的挚爱。

这个notebook可以在Github上找到:https://github.com/Christophe-pere/Time_series_RNN。

RNN,LSTM,GRU,双向,CNN-x

那么我们将在哪个模型上进行这项研究?我们将使用循环神经网络(RNN[5]),LSTM[6]、GRU[7]、Stacked LSTM、Stacked GRU、双向LSTM[8]、双向GRU以及CNN-LSTM[9]。

对于那些热衷于树的人,你可以在这里找到一篇关于XGBoost和时间序列的文章,作者是jasonbrownley。github上提供了一个关于时间序列的很好的存储库:https://github.com/Jenniferz28/Time-Series-ARIMA-XGBOOST-RNN

对于那些不熟悉RNN家族的人,把它们看作是具有记忆效应和遗忘能力的学习方法。双向来自体系结构,它是指两个RNN,它将在一个方向(从左到右)和另一个方向(从右到左)“读取”数据,以便能够最好地表示长期依赖关系。

数据

如前文所述,这些数据对应于几颗恒星的通量测量值。实际上,在每一个时间增量(小时),卫星都会测量来自附近恒星的通量。这个通量,或者说是光强度,随时间而变化。这有几个原因,卫星的正确移动、旋转、视角等都会有所不同。因此,测量到的光子数会发生变化,恒星是一个熔化的物质球(氢和氦聚变),它有自己的运动,因此光子的发射取决于它的运动。这对应于光强度的波动。

但是,也可能有行星,系外行星,它们干扰恒星,甚至从恒星之间穿过卫星的视线(凌日方法[12])。这条通道遮住了恒星,卫星接收到的光子较少,因为它们被前面经过的行星挡住了(一个具体的例子是月球引起的日食)。

通量测量的集合被称为光曲线。光曲线是什么样子的?以下是一些示例:

不同恒星之间的通量非常不同。有的噪音很大,有的则很稳定。通量仍然呈现异常。在光照曲线中可以看到孔或缺少测量。我们的目标是看是否有可能在没有测量的情况下预测光曲线的行为。

数据缩减

为了能够使用模型中的数据,有必要进行数据简化。这里将介绍两种方法,移动平均法和窗口法。

移动平均线:

移动平均包括取X个连续点并计算它们的平均值。这种方法可以减少变异性,消除噪声。这也减少了点的数量,这是一种下采样方法。

下面的函数允许我们从点列表中计算移动平均值,方法计算点的平均值和标准差的数字。

  1. def moving_mean(time, flux, lag=5):
  2.     '''
  3.     该函数通过设定平均值,使数据去噪,减少数据量。
  4.     @param time: (list) 时间值列表
  5.     @param flux: (list) 浮点列表->恒星通量
  6.     @param lag: (int) 平均值个数,默认值5
  7.     @return X: (list) 时间调整
  8.     @return y: (list) 通量按平均值重新标定
  9.     @return y_std: (list) 标准差列表
  10.     '''
  11.     # 让我们做一些简单的代码
  12.     # 空列表
  13.     X = []
  14.     y = []
  15.     y_std = []
  16.     j = 0 # 增量
  17.     for i in range(int(len(flux)/lag)):
  18.         X.append(np.mean(time[(i+j):(i+j+lag)]))
  19.         y.append(np.mean(flux[(i+j):(i+j+lag)]))
  20.         y_std.append(np.std(flux[(i+j):(i+j+lag)]))
  21.         j+= lag
  22.     
  23.     
  24.     return X, y, y_stdn  

可以看到函数在输入中接受3个参数。时间和通量是时间序列的x和y。「lag」 是控制计算时间和通量平均值以及通量标准差时所考虑的数据个数。

现在,我们可以看看如何使用这个函数以及通过转换得到的结果。

  1. # #导入所需的包
  2. matplotlib inline
  3. import scipy
  4. import pandas as pd
  5. import numpy as np
  6. import matplotlib.pyplot as plt
  7. import sklearn
  8. import tensorflow as tf
  9. # 让我们看看进度条
  10. from tqdm import tqdm
  11. tqdm().pandas()

现在我们需要导入数据。文件kep_lightcurves.csv包含着数据。每颗恒星有4列,原始磁通量(“…orig”),重新缩放的通量是原始磁通量减去平均磁通量(“…rscl’”)、差值(“…diff”)和残差(“…_res”)。总共52列。

  1. 20个数据点
  2. x, y, y_err  = moving_mean(df.index,df["001724719_rscl"], 20)

df.index表示时间序列的时间

df[" 001724719_rscl "] 重新缩放的通量(" 001724719 ")

lag=20是计算平均值和std的数据点的个数

前面3条光照曲线的结果:

「窗口方法」

第二种方法是窗口方法,它是如何工作的?

你需要取很多点,在前一个例子中是20,然后计算平均值(与前面的方法没有区别),这个点是新时间序列的开始,它在位置20(偏移19个点)。但是,窗口不是移动到下20个点,而是移动一个点,用之前的20个点计算平均值,然后通过向后移动一步,以此类推。

这不是一种下采样方法,而是一种清理方法,因为其效果是平滑数据点。

让我们看看代码:

  1. def mean_sliding_windows(time, flux, lag=5):
  2.     '''
  3.     该函数通过设定平均值,使数据去噪。
  4.     @param time: (list) 时间值列表
  5.     @param flux: (list) 浮点列表->恒星通量
  6.     @param lag: (int) 平均值个数,默认值5
  7.     @return X: (list) 时间调整
  8.     @return y: (list) 通量按平均值重新标定
  9.     @return y_std: (list) 标准差列表
  10.     '''
  11.     # 让我们做一些简单的代码
  12.     # 空列表
  13.     X = []
  14.     y = []
  15.     y_std = []
  16.     j = 0 # 增量
  17.     for i in range(int(len(flux)-lag)):
  18.         
  19.         _flux = flux[i:(i+lag)]
  20.         _time = time[i:(i+lag)]
  21.         X.append(np.mean(_time))
  22.         y.append(np.mean(_flux))
  23.         y_std.append(np.std(_flux))         
  24.         
  25.         j+= 1 # 我们只移动一步
  26.         
  27.     return X, y, y_std

你可以很容易地这样使用它:

  1. # 使用20个点
  2. x, y, y_err  = mean_sliding_windows(df.index,df["001724719_rscl"], 40)

df.index表示时间序列的时间

df[" 001724719_rscl "] 重新缩放的通量(" 001724719 ")

lag=40是计算平均值和std的数据点的个数

现在,看看结果:

嗯,还不错。将lag设置为40允许“预测”或在小孔中扩展新的时间序列。但是,如果你仔细看,你会发现在红线的开始和结束部分有一个分歧。可以改进函数以避免这些伪影。

在接下来的研究中,我们将使用移动平均法获得的时间序列。

「将x轴从值更改为日期:」

如果需要日期,可以更改轴。开普勒任务开始于2009年3月7日,结束于2017年。Pandas有一个叫做pd.data_range()的函数。此函数允许你从不断递增的列表中创建日期。

df.index = pd.date_range(‘20090307’, periods=len(df.index), freq=’h’)

这行代码将创建一个频率为小时的新索引。打印结果如下所示。

  1. $ df.index
  2. DatetimeIndex(['2009-03-07 00:00:00''2009-03-07 01:00:00',
  3.                '2009-03-07 02:00:00''2009-03-07 03:00:00',
  4.                '2009-03-07 04:00:00''2009-03-07 05:00:00',
  5.                '2009-03-07 06:00:00''2009-03-07 07:00:00',
  6.                '2009-03-07 08:00:00''2009-03-07 09:00:00',
  7.                ...
  8.                '2017-04-29 17:00:00''2017-04-29 18:00:00',
  9.                '2017-04-29 19:00:00''2017-04-29 20:00:00',
  10.                '2017-04-29 21:00:00''2017-04-29 22:00:00',
  11.                '2017-04-29 23:00:00''2017-04-30 00:00:00',
  12.                '2017-04-30 01:00:00''2017-04-30 02:00:00'],
  13.               dtype='datetime64[ns]', length=71427, freq='H')

现在,对于原始时间序列,你有了一个很好的时间刻度。

「生成数据集」

因此,既然已经创建了数据简化函数,我们可以将它们组合到另一个函数中(如下所示),该函数将考虑初始数据集和数据集中的恒星名称(这部分可以在函数中完成)。

  1. def reduced_data(df,stars):
  2.     '''
  3.     Function to automatically reduced a dataset 
  4.     @param df: (pandas dataframe) 包含所有数据的dataframe
  5.     @param stars: (list) 包含我们想要简化数据的每个恒星的名称的列表
  6.     @return df_mean: 包含由减少平均值的数据的dataframe
  7.     @return df_slide: 包含通过滑动窗口方法减少的数据
  8.     '''
  9.     df_mean = pd.DataFrame()
  10.     df_slide = pd.DataFrame()
  11.     for i in tqdm(stars):
  12.         
  13.         x , y, y_std = moving_average(df.index, df[i+"_rscl"], lag=25)
  14.         df_mean[i+"_rscl_x"] = x
  15.         df_mean[i+"_rscl_y"] = y
  16.         df_mean[i+"_rscl_y_std"] = y_std
  17.         
  18.         x , y, y_std = mean_sliding_windows(df.index, df[i+"_rscl"], lag=40)
  19.         df_slide[i+"_rscl_x"]= x
  20.         df_slide[i+"_rscl_y"]= y
  21.         df_slide[i+"_rscl_y_std"]= y_std
  22.     
  23.     return df_mean, df_slide

要生成新的数据帧,请执行以下操作:

  1. stars = df.columns
  2. stars = list(set([i.split("_")[0for i in stars]))
  3. print(f"The number of stars available is: {len(stars)}")
  4. > The number of stars available is: 13

我们有13颗恒星,有4种数据类型,对应52列。

df_mean, df_slide = reduced_data(df,stars)

很好,在这一点上,你有两个新的数据集,其中包含移动平均和窗口方法减少的数据。

方法

「准备数据:」

为了使用机器学习算法来预测时间序列,必须相应地准备数据。数据不能仅仅设置在(x,y)个数据点。数据必须采用序列[x1,x2,x3,…,xn]和预测值y的形式。

下面的函数演示如何设置数据集:

  1. def create_dataset(values, look_back=1):
  2.     '''
  3.     函数准备一列(x, y)数据指向用于时间序列学习的数据
  4.     @param values: (list) 值列表
  5.     @param look_back: (int) x列表的值[x1, x2, x3,…默认值1
  6.     @return _x: x时间序列的值
  7.     @return _y: y时间序列的值
  8.     '''
  9.     # 空列表
  10.  _x, _y = [], []
  11.  for i in range(len(values)-look_back-1):
  12.   a = values[i:(i+look_back)]      
  13.   _x.append(a)                        # 集合x
  14.   _y.append(values[i + look_back]) # 集合y
  15.  return np.array(_x), np.array(_y)

开始之前有两件重要的事。

1.需要重新缩放数据

当数据在[0,1]范围内时,深度学习算法对时间序列的预测效果更好。为此,scikit learn提供了MinMaxScaler()函数。你可以配置feature_range参数,但默认值为(0,1)。并清除nan值的数据(如果不删除nan值,则损失函数将输出nan)。

  1. # 缩放数据
  2. num = 2 # 选择数据集中的第三颗星
  3. values = df_model[stars[num]+"_rscl_y"].values # 提取值
  4. scaler = MinMaxScaler(feature_range=(01)) # 创建MinMaxScaler的实例
  5. dataset = scaler.fit_transform(values[~np.isnan(values)].reshape(-11)) # 数据将清除nan值,重新缩放并改变形状

2.需要将数据转换为x list和y

现在,我们将使用create_values()函数为模型生成数据。但是,以前,我更喜欢通过以下方式保存原始数据:

df_model = df_mean.save()
  1. # 分成训练和测试集sets
  2. train_size = int(len(dataset) * 0.8)   # 生成80%的训练数据
  3. train = dataset[:train_size] # 设置训练数据
  4. test  = dataset[train_size:] # 设置测试数据
  5. #重塑为X=t和Y=t+1
  6. look_back = 20
  7. trainX, trainY = create_dataset(train, look_back)
  8. testX, testY = create_dataset(test, look_back)
  9. # 将输入重塑为[示例、时间点、特征]
  10. trainX = np.reshape(trainX, (trainX.shape[0], trainX.shape[1], 1))
  11. testX = np.reshape(testX, (testX.shape[0], testX.shape[1], 1))

看看结果吧

  1. trainX[0]
  2. > array([[0.7414906],
  3.        [0.76628096],
  4.        [0.79901113],
  5.        [0.62779976],
  6.        [0.64012722],
  7.        [0.64934765],
  8.        [0.68549234],
  9.        [0.64054092],
  10.        [0.68075644],
  11.        [0.73782449],
  12.        [0.68319294],
  13.        [0.64330245],
  14.        [0.61339268],
  15.        [0.62758265],
  16.        [0.61779702],
  17.        [0.69994317],
  18.        [0.64737128],
  19.        [0.64122564],
  20.        [0.62016833],
  21.        [0.47867125]]) # x数据的第一个有20个值
  22. trainY[0]
  23. > array([0.46174275]) # 对应的y值

「度量」

我们用什么指标来预测时间序列?我们可以使用平均绝对误差和均方误差。它们由函数给出:

  1. def metrics_time_series(y_true, y_pred):
  2.     '''
  3.     从sklearn.metrics计算MAE和MSE度量
  4.     @param y_true: (list) 真实值列表
  5.     @param y_pred: (list) 预测值列表
  6.     @return mae, mse: (float), (float) mae和mse的度量值
  7.     '''
  8.     mae = round(mean_absolute_error(y_true, y_pred), 2)
  9.     mse = round(mean_squared_error(y_true, y_pred), 2)
  10.     print(f"The mean absolute error is: {mae}")
  11.     print(f"The mean squared error is: {mse}")
  12.     return mae, mse

首先需要导入函数:

from sklearn.metrics import mean_absolute_error, mean_squared_error

RNNs:

你可以用几行代码轻松地用Keras实现RNN家族。在这里你可以使用这个功能来配置你的RNN。你需要首先从Keras导入不同的模型,如:

  1. # 导入一些包
  2. import tensorflow as tf
  3. from keras.layers import SimpleRNN, LSTM, GRU, Bidirectional, Conv1D, MaxPooling1D, Dropout

现在,我们有从Keras导入的模型。下面的函数可以生成一个简单的模型(SimpleRNN,LSTM,GRU)。或者,两个模型(相同的)可以堆叠,或者用于双向或两个双向模型的堆栈中。你还可以添加带有MaxPooling1D和dropout的CNN部分(Conv1D)。

  1. def time_series_deep_learning(x_train, y_train, x_test, y_test, model_dl=LSTM ,  unit=4, look_back=20, cnn=False, bidirection=False, stacked=False):
  2.     '''
  3.     生成不同组合的RNN模型。可以是简单的、堆叠的或双向的。模型也可以与CNN部分一起使用。
  4. x是(样本、时间步长、特征)的训练数据
  5.     @param x_train: (matrix) 训练数据,维度为 (samples, time steps, features)
  6.     @param y_train: (list) 预测
  7.     @param x_test: (matrix) 测试数据,维度为 (samples, time steps, features)
  8.     @param y_test: (list) 预测
  9.     @param model_dl: (model) RNN类型
  10.     @param unit: (int) RNN单元数量
  11.     @param look_back: (int) x列表中值的数量,配置RNN的形状
  12.     @param cnn: (bool) 添加cnn部分模型,默认为false
  13.     @param bidirection: (bool) 为RNN添加双向模型,默认为false
  14.     @param stacked: (bool) 堆叠的两层RNN模型,默认为假
  15.     @return train_predict: (list) x_train的预测值
  16.     @return train_y: (list) 真实y值
  17.     @return test_predict: (list) x_test的预测值
  18.     @return test_y: (list) 真实y值
  19.     @return (dataframe) 包含模型和度量的名称
  20.     '''
  21.     #配置提前停止的回调,以避免过拟合
  22.     es = tf.keras.callbacks.EarlyStopping(
  23.         monitor='loss',  patience=5, verbose=0, mode='auto',
  24.     )
  25.     
  26.     # 序列模型的实例
  27.     model = Sequential()
  28.     
  29.     if cnn: # 如果cnn部分是需要的
  30.         print("CNN")
  31.         model.add(Conv1D(1285, activation='relu'))
  32.         model.add(MaxPooling1D(pool_size=4))
  33.         model.add(Dropout(0.2))
  34.     
  35.     if not bidirection and not stacked: # 如果需要简单的模型
  36.         print("Simple Model")
  37.         name = model_dl.__name__
  38.         model.add(model_dl(unit,  input_shape=(look_back, 1)))
  39.     elif not bidirection: # 测试是否需要双向模型
  40.         print("Stacked Model")
  41.         name = "Stacked_"+model_dl.__name__
  42.         model.add(model_dl(unit,  input_shape=(look_back, 1), return_sequences=True))
  43.         model.add(model_dl(unit,  input_shape=(look_back, 1)))
  44.     elif not stacked: # 测试是否需要堆叠模型
  45.         print("Bidirectional Model")
  46.         name = "Bi_"+model_dl.__name__
  47.         model.add(Bidirectional(model_dl(unit,  input_shape=(look_back, 1))))
  48.     else: # 测试是否需要双向和堆叠模型
  49.         print("Stacked Bidirectional Model")
  50.         name = "Stacked_Bi_"+model_dl.__name__
  51.         model.add(Bidirectional(model_dl(unit,  input_shape=(look_back, 1), return_sequences=True)))
  52.         model.add(Bidirectional(model_dl(unit,  input_shape=(look_back, 1))))
  53.         
  54.     if cnn: # 更新名称与cnn部分
  55.         name = "CNN_"+name
  56.     
  57.     # 添加单层稠密层和激活函数线性来预测连续值
  58.     model.add(Dense(1))
  59.     model.compile(loss='mean_squared_error', optimizer='adam') # MSE loss可以被'mean_absolute_error'替代
  60.     model.fit(trainX, trainY, epochs=1000, batch_size=100, callbacks=[es], verbose=0)
  61.     
  62.     # 做出预测
  63.     train_predict = model.predict(x_train)
  64.     test_predict = model.predict(x_test)
  65.     
  66.     # 反预测
  67.     train_predict = scaler.inverse_transform(train_predict)
  68.     train_y = scaler.inverse_transform(y_train)
  69.     test_predict = scaler.inverse_transform(test_predict)
  70.     test_y = scaler.inverse_transform(y_test)
  71.     
  72.     # 计算度量
  73.     print("Train")
  74.     mae_train, mse_train = metrics_time_series( train_y, train_predict)
  75.     print("Test")
  76.     mae_test, mse_test = metrics_time_series( test_y, test_predict)
  77.     
  78.     return train_predict, train_y, test_predict, test_y, pd.DataFrame([name, mae_train, mse_train, mae_test, mse_test], index=["Name""mae_train""mse_train""mae_test""mse_test"]).T

此函数计算训练部分和测试部分的度量,并以数据帧的形式返回结果。举五个例子。

LSTM

  1. # 训练模型并计算度量
  2. > x_train_predict_lstm, y_train_lstm,x_test_predict_lstm, y_test_lstm, res= time_series_deep_learning(train_x, train_y, test_x, test_y, model_dl=LSTM ,  unit=12, look_back=20)
  3. # 画出预测的结果
  4. > plotting_predictions(dataset, look_back, x_train_predict_lstm,  x_test_predict_lstm)
  5. # 将每个模型的指标保存在数据框df_results中
  6. > df_results = df_results.append(res)

GRU

  1. # 训练模型并计算度量
  2. > x_train_predict_lstm, y_train_lstm,x_test_predict_lstm, y_test_lstm, res= time_series_deep_learning(train_x, train_y, test_x, test_y, model_dl=GRU,  unit=12, look_back=20)

堆叠LSTM:

  1. # 训练模型并计算度量
  2. > x_train_predict_lstm, y_train_lstm,x_test_predict_lstm, y_test_lstm, res= time_series_deep_learning(train_x, train_y, test_x, test_y, model_dl=LSTM ,  unit=12, look_back=20, stacked=True)

双向LSTM:

  1. # 训练模型并计算度量
  2. > x_train_predict_lstm, y_train_lstm,x_test_predict_lstm, y_test_lstm, res= time_series_deep_learning(train_x, train_y, test_x, test_y, model_dl=LSTM ,  unit=12, look_back=20, bidirection=True)

CNN-LSTM:

  1. # 训练模型并计算度量
  2. > x_train_predict_lstm, y_train_lstm,x_test_predict_lstm, y_test_lstm, res= time_series_deep_learning(train_x, train_y, test_x, test_y, model_dl=LSTM ,  unit=12, look_back=20, cnn=True)
结果

考虑到这些数据,结果相当不错。我们可以看出,深度学习RNN可以很好地再现数据的准确性。下图显示了LSTM模型的预测结果。

表1:不同RNN模型的结果,显示了MAE和MSE指标

  1.   Name    | MAE Train | MSE Train | MAE Test | MSE Test
  2. --------------------------------------------------------------------
  3.             GRU |   4.24    |   34.11   |   4.15   |   31.47 
  4.            LSTM |   4.26    |   34.54   |   4.16   |   31.64 
  5.       Stack_GRU |   4.19    |   33.89   |   4.17   |   32.01
  6.       SimpleRNN |   4.21    |   34.07   |   4.18   |   32.41
  7.            LSTM |   4.28    |   35.1    |   4.21   |   31.9
  8.          Bi_GRU |   4.21    |   34.34   |   4.22   |   32.54
  9.   Stack_Bi_LSTM |   4.45    |   36.83   |   4.24   |   32.22
  10.         Bi_LSTM |   4.31    |   35.37   |   4.27   |   32.4
  11. Stack_SimpleRNN |   4.4     |   35.62   |   4.27   |   33.94
  12.       SimpleRNN |   4.44    |   35.94   |   4.31   |   34.37 
  13.      Stack_LSTM |   4.51    |   36.78   |   4.4    |   34.28
  14.  Stacked_Bi_GRU |   4.56    |   37.32   |   4.45   |   35.34
  15.        CNN_LSTM |   5.01    |   45.85   |   4.55   |   36.29
  16.         CNN_GRU |   5.05    |   46.25   |   4.66   |   37.17 
  17.   CNN_Stack_GRU |   5.07    |   45.92   |   4.7    |   38.64

表1显示了RNN系列训练集和测试集的平均绝对误差(MAE)和均方误差(MSE)。GRU在测试集上显示了最好的结果,MAE为4.15,MSE为31.47。

讨论

结果很好,并且重现了不同恒星的光照曲线(见notebook)。然而,波动并不是完全重现的,峰值的强度也不相同,通量也有轻微的偏移。可以通过注意机制进行校正。另一种方法是调整模型、层数(堆栈)、单元数(单元)、不同RNN算法的组合、新的损失函数或激活函数等。

结论

本文展示了将所谓的人工智能方法与时间序列相结合的可能性。记忆算法(RNN、LSTM、GRU)的强大功能使得精确再现事件的偶发波动成为可能。在我们的例子中,恒星通量表现出相当强烈和显著的波动,这些方法已经能够捕捉到。

这项研究表明,时间序列不再是统计方法,如ARIMA[4]模型。

参考引用

[1] Autoregressive model, Wikipedia [2] Moving-average model, Wikipedia [3] Peter Whittle, 1950. Hypothesis testing in time series analysis. Thesis [4] Alberto Luceño & Daniel Peña, 2008. Autoregressive Integrated Moving Average (ARIMA) Modeling. Wiley Online Library. https://doi.org/10.1002/9780470061572.eqr276 [5] Rumelhart, David E. et al., 1986. Learning representations by back-propagating errors. Nature. 「323」 (6088): 533–536. 1986Natur.323..533R. [6] Hochreiter, Sepp & Schmidhuber, Jürgen, 1997. Long Short-Term Memory. Neural Computation. 「9」 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735 [7] Cho, KyungHyun et al., 2014. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling. arXiv:1412.3555 [8] M. Schuster & K.K. Paliwal, 1997. Bidirectional recurrent neural networks. IEEE Transactions on Signal Processing, Volume: 45 , Issue: 11, pp. 2673–2681. DOI**:** 10.1109/78.650093 [9] Tara N. Sainath et al., 2014. CONVOLUTIONAL, LONG SHORT-TERM MEMORY,FULLY CONNECTED DEEP NEURAL NETWORKS. https://static.googleusercontent.com/media/research.google.com/fr//pubs/archive/43455.pdf [10] Ashish Vaswani et al., 2017. Attention is all you need. https://arxiv.org/abs/1706.03762 [11] Kepler mission, Nasa

原文链接:https://towardsdatascience.com/how-to-use-deep-learning-for-time-series-forecasting-3f8a399cf205

✄------------------------------------------------

  1. 往期精彩回顾
  2. 适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
  3. AI基础下载机器学习的数学基础专辑
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/165377?site
推荐阅读
相关标签
  

闽ICP备14008679号