当前位置:   article > 正文

Python用GRU神经网络模型预测比特币价格时间序列数据2案例可视化|附代码数据...

gru 模型预测比特币价格

全文链接:https://tecdat.cn/?p=36389

门控循环单元(GRU)是一种循环神经网络(RNN)类型,旨在有效地捕获序列数据中的长期依赖关系。它是传统RNN的扩展,与长短期记忆(LSTM)网络具有相似性点击文末“阅读原文”获取完整代码数据)。

相关视频

我们将简要了解GRU模型以及如何帮助客户在PyThon中使用GRU实现序列数据预测。

GRU简介

GRU背后的核心思想是解决梯度消失问题,并提高RNN在长序列中保留信息的能力。GRU通过引入门控机制来实现这一点,这些机制调节了网络内部信息的流动。

典型的GRU单元包括以下组件:

  • 更新门:确定要保留多少过去的信息以及允许多少新信息通过。它基于当前时间步的输入和先前的隐藏状态进行计算。

  • 重置门:控制应该忽略哪些过去的隐藏状态部分。它的计算方式与更新门类似。

  • 候选激活:在考虑重置门的情况下,根据当前输入和先前的隐藏状态计算新的候选激活。

  • 隐藏状态:将候选激活与更新门结合,以产生当前的隐藏状态。

更新门和重置门允许模型选择性地更新或忽略来自先前时间步的信息,从而解决了梯度消失问题,并有助于捕获长期依赖关系。

案例1:PyTorch序列数据预测

数据准备

在PyTorch中,我们将使用GRU模型实现序列数据预测。首先,我们加载本教程所需的必要库。

接下来,我们将使用简单的序列数据。下面的代码展示了如何生成序列数据并在图上可视化它。在此,我们使用720个样本作为训练数据,130个样本用于预测。

定义参数

  1. python复制代码
  2. step_size = 4 # 步长大小
  3. N = 850 # 总样本数
  4. forecast_start = 720 # 预测开始的索引位置

通过定义这些参数,我们可以根据需求生成相应的序列数据,并在后续步骤中用于训练和预测。

绘制数据

  1. python复制代码
  2. # 绘制整个数据序列
  3. plt.plot(df['Time'], df['Value'])

注意:在上面的代码中,我添加了 'Time' 列到 DataFrame df 中,以便后续可以更方便地根据时间索引来划分训练集和测试集。同时,在绘制垂直线时,我使用了 x=df['Time'][forecast_start] 来确保垂直线准确地绘制在预测开始的时间点上。如果你不需要 'Time' 列,你可以忽略它,并在绘制垂直线时直接使用 forecast_start(但这样绘制出来的线可能不会非常精确,因为它基于的是索引而不是实际的时间值)。

f3d9ccb58967493d2c2e326e91ffcc8a.jpeg 接下来,我们将数据转换为具有给定长度的序列和标签。以下函数用于为序列数据创建标签。


点击标题查阅往期内容

d571f180b91bfd3b9a03c5fc29094700.png

Python用RNN神经网络:LSTM、GRU、回归和ARIMA对COVID19新冠疫情人数时间序列预测

outside_default.png

左右滑动查看更多

outside_default.png

01

e5538a77b4328267d68df9210b58b93d.png

02

860c27e0116781252cd492e76d2cfba3.png

03

cd8185c5deba4f4cdab21150d4df3f81.png

04

26bc80f2c5292c03b16dc1fc86586c47.png

我们可以使用forecast_start变量将数据分为训练集和测试集,然后生成序列数据及其标签。为了将数据转换为LSTM的输入格式,我们使用np.reshape()函数。训练集和测试集被转换为PyTorch张量,并使用这些张量创建DataLoader对象。

  1. # 将数据重新整形以匹配LSTM的输入
  2. trainX = np.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1]))

注意:在创建DataLoader时,我添加了shuffle=True参数,这在训练时通常是一个好习惯,因为它可以帮助模型更好地泛化。此外,请确保在调用create_labels函数时,只传递了值列(df['Value'].values),因为我们只关心这些值作为序列数据。时间t在这里仅用于索引,不需要作为输入数据的一部分。

模型定义与训练

我们使用PyTorch的nn.Module类定义了一个GRU模型。在初始化方法中,我们初始化了GRU模型的输入、隐藏和输出尺寸。nn.GRU()方法使用指定的输入和隐藏尺寸构建了GRU层,其中batch_first=True表示输入和输出张量具有(batch_size, sequence_length, input_size)的形状。此外,我们使用nn.Linear()方法定义了一个全连接线性层,该层将GRU的隐藏状态输出映射到所需的输出尺寸。

在forward方法中,我们实现了通过GRU层的前向传递,生成了输出张量'out'。然后,我们将全连接层应用于GRU最后一个时间步的输出(out[:, -1, :]),生成了模型的最终输出。

我们定义了模型的超参数,并使用上述定义的GRUModel类初始化了模型。我们采用MSELoss()作为损失函数,并使用Adam优化器进行训练。

超参数设置

  1. # 定义损失函数和优化器
  2. criterion = nn.MSELoss() # 使用均方误差损失函数
  3. optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate) # 使用Adam优化器,并设置学习率

接下来,我们通过迭代训练轮次来训练模型,并在每10个轮次后打印损失值。

训练模型

  1. # 遍历所有训练轮次
  2. for epoch in range(epochs):

现在,我们可以开始训练模型了。

9a45e07cd75ad5eeaa3a403f7e217c50.png

预测

训练完成后,我们可以使用训练好的模型对测试数据进行预测,并将其以图形的方式可视化。

b57e8a93e8a36cad4deccdf241cc99c2.jpeg

案例2:比特币价格(BTC/USDT)进行了预测

在本文中,我们利用了一个基于GRU(门控循环单元)的模型(在代码中称为gruMODEL)对3月27日的比特币价格(BTC/USDT)进行了预测,并计算了预测的准确率。

tensorflow.keras.models导入了Sequential模型,从tensorflow.keras.optimizers导入了随机梯度下降(SGD)优化器,从tensorflow.keras.layers导入了激活函数(Activation)、全连接层(Dense)、丢弃层(Dropout)和门控循环单元(GRU)。此外,还导入了matplotlib.pyplot用于绘图,numpy用于数值计算,pandas用于数据处理,以及sklearn.metrics中的平均绝对误差(MAE)作为评估指标。

输出数据的前五行显示了日期(Date)、开盘价(Open)、最高价(High)和最低价(Low)等信息,这些被用作特征变量。而目标变量y则显示了对应日期的收盘价(Price)。

3c43a7957e256ec7627bc3e0a533b45d.png

01fffddb209c42166dd96408268d0ab9.png

输出结果表明,data 的索引已经成功转换为了以纳秒为单位的时间戳格式,并且按照从 '2022-03-25' 到 '2018-02-26' 的时间顺序排列。这个 DatetimeIndex 包含了 1489 个日期,没有固定的频率(freq=None)。

  1. python复制代码
  2. aim = 'Price' # 设定目标变量为'Price'

这行代码声明了一个变量 aim,并将其值设置为字符串 'Price',这通常用于后续的代码中以标识目标变量。

  1. python复制代码
  2. data.shape # 查询数据框的形状

输出 (1489, 3) 表明 data 数据框包含 1489 行和 3 列。

这段代码将数据划分为训练集和测试集,其中训练集包含第300行之后的数据,测试集包含从开始到第300行(不包括第300行)的数据。并且打印出了测试集的目标变量值(即 BTC 的价格)。

接着定义了一个名为 line_plot 的函数,用于绘制两条线的图形。这个函数接受两条线(line1 和 line2)、两个标签(label1 和 label2)、一个标题(title)和线宽(lw)作为参数。在图形中,两条线会被分别绘制出来,并且会添加 Y 轴标签、标题和图例。图例的位置由 loc='best' 自动选择最佳位置。

bd147408ef69ce9bc7b6ae7247f83f39.png

该行代码调用了之前定义的 line_plot 函数,用于绘制训练集和测试集的目标变量(在这里是比特币价格)随时间变化的折线图。图中的两条线分别代表了训练集('training')和测试集('test')的价格变化,标题为空(title='')。

65b838f587cc94083c1a54da972aada2.jpeg

上面的图片链接显示了训练集和测试集价格随时间变化的折线图。

接下来,定义了两个数据归一化函数:

  1. def normalise_zero_base(continuous): return continuous / continuous.iloc[0] - 1
  2. def normalise_min_max(continuous): return (continuous - continuous.min()) / (data.max() - continuous.min())
  • normalise_zero_base 函数将连续数据以第一行数据为基准进行归一化,即除以第一行数据然后减去1。

  • normalise_min_max 函数将连续数据缩放到0到1之间,通过减去最小值并除以数据范围(最大值减去最小值)实现。但注意这里使用了全局的 data.max() 而不是 continuous.max(),这可能是一个错误,因为通常我们会希望针对 continuous 自身的最大值和最小值进行归一化。

这四行代码分别对训练集和测试集的特征变量(X_train 和 X_test)以及目标变量(y_train 和 y_test)进行了基于第一行数据的归一化处理。

这里使用 NumPy 的 expand_dims 函数为 X_train 和 X_test 数据集增加了一个新的维度,即在第二个维度(索引为1)上增加了维度,使得它们的形状从 (样本数, 特征数) 变为 (样本数, 1, 特征数)。这通常是为了适应某些需要特定输入形状的模型,如循环神经网络(RNN)或卷积神经网络(CNN)。

该行代码输出了归一化并扩展维度后的 X_train 数据集的形状,结果是 (1189, 1, 3),表示有1189个样本,每个样本是一个序列,包含3个特征。

从 TensorFlow 导入 Keras 模块后,下面的代码定义了一个基于 GRU(门控循环单元)架构的神经网络模型。

以上代码定义了一个包含一层 GRU 和一层 Dropout 的神经网络模型,其中 GRU 层用于处理序列数据,Dropout 层用于防止过拟合。Dropout 层的丢弃率设置为 0.9,意味着在训练过程中,每个神经元有 90% 的概率被丢弃。

基于 TensorFlow 的 Keras 框架,我们构建了一个包含两层 GRU(门控循环单元)的模型,并在每层 GRU 之后添加了 Dropout 层以进行正则化,防止过拟合。以下是模型的构建过程:

  1. # 初始化 GRU 模型
  2. gruMODEL = Sequential()
  3. # 第一层 GRU,并添加 Dropout 正则化
  4. gruMODEL.add(GRU(

在这个模型中,我们首先定义了一个 Sequential 模型,然后添加了两个 GRU 层,每个 GRU 层后面都跟随了一个 Dropout 层。第一层 GRU 的隐藏单元数为 1024,输入数据的形状为 (1, 3),表示每个样本有一个时间步长和三个特征。第二层 GRU 的隐藏单元数增加到了 2048,并且两个 Dropout 层的丢弃率分别设置为 0.9 和 0.8,用于在训练过程中随机丢弃一部分神经元的输出,以减少过拟合的风险。

该模型结构概览如下:

模型从输入层开始,通过一系列的门控循环单元(GRU)层和dropout层进行信息处理和特征提取,最终通过一个全连接层(Dense)输出预测结果。

  • 第一层是gru_21,这是一个GRU层,具有1024个神经元,其输出形状为(None, 1, 1024),意味着对于任意长度的输入序列,该层会输出一个长度为1的序列,每个序列元素是1024维的特征向量。该层包含3,162,112个参数。

  • 接着是dropout_18层,这是一个dropout层,用于防止过拟合,其输出形状与gru_21相同,但没有任何可训练的参数。

  • 接下来是gru_22层,同样是一个GRU层,但神经元数量增加至2048个,输出形状为(None, 1, 2048),包含18,888,704个参数。

  • 类似的,dropout_19层作为dropout层,用于进一步减少过拟合的风险。

  • gru_23层是模型中的第三层GRU层,神经元数量增加到4096个,输出形状为(None, 1, 4096),包含75,526,144个参数。

  • dropout_20层继续作为dropout层,减少过拟合。

  • gru_24层是模型中的最后一层GRU层,其输出形状变为(None, 512),意味着该层将4096维的特征向量压缩至512维,包含7,080,960个参数。

  • dropout_21层是最后一个dropout层。

  • 最后是dense_3层,这是一个全连接层,只有一个神经元,用于输出预测结果,其输出形状为(None, 1),包含513个参数。

整个模型包含总共104,658,433个可训练参数,没有不可训练的参数。这些参数在模型训练过程中会被优化器调整,以最小化损失函数。模型的架构反映了从输入到输出的信息处理和特征提取的逐步深化过程。

452e7c04a4f89600fe0670214fb553db.png

7ffc03dfeb7e2e5da9c118eb9c88d3ab.png

在构建网络结构图时,我们定义了一个包含多个GRU层的模型。以下是基于提供代码生成的网络结构图的描述:

首先,我们定义了网络中的层数和各层的神经元数量,它们分别是:[3, 15, 30, 45, 90, 1]。随后,我们为这些层定义了对应的文本标签和颜色属性。

网络结构图使用Graphviz的DOT语言描述,并通过Python代码生成。整个图从左至右(LR)排列,各层之间通过直线(splines=line)连接。节点间的间距(nodesep)和层次间的间距(ranksep)分别设定为0.08和1,以便于清晰展示。

对于图中的每个节点(即每个神经元),我们设定了固定的尺寸(fixedsize=true),并使用了填充颜色(fillcolor)和形状(shape=circle)。输入层(Input)和输出层(Output)分别用黑色填充,而中间的GRU层用灰色填充。节点的标签被隐藏,仅显示填充颜色。

接下来,代码创建了多个子图(subgraph),每个子图代表网络中的一个层。每个子图中的节点数量与该层的神经元数量相对应。例如,输入层(Input)包含3个节点,第一个GRU层包含15个节点,依此类推。

在子图中,我们定义了节点的样式(style)、颜色(color)、边框宽度(penwidth)和填充颜色(fillcolor)。对于输入层和输出层,我们使用了黑色填充;对于中间的GRU层,我们使用了灰色填充。

最后,代码生成了连接各层节点的边。例如,“l310 -> l441”表示第三层的第一个节点连接到第四层的第一个节点。通过这种方式,我们构建了整个网络结构图。

以下是部分生成的连接关系:

在以下的代码中,我们定义了一个网络结构图,其基于Graphviz的DOT语言格式进行描述。网络结构由多个层组成,包括输入层、多个GRU(门控循环单元)层和输出层。

这段代码将生成一个描述网络结构的DOT文件,其中包含从输入层开始,通过多层GRU网络,最后到达输出层的连接关系。每个层由一组节点组成,这些节点之间通过边进行连接。通过Graphviz软件可以将此DOT文件渲染成网络结构图。

a3313e5510cdc1fb2678e8982f7e65eb.png

这些连接关系展示了网络中信息流动的方向,即输入层的数据经过多层GRU处理后,最终到达输出层。

上述代码段使用Python的with语句打开了一个名为model.txt的文件,用于写入一个Graphviz DOT格式的文本文件。该文件描述了一个由多层组成的网络结构,其中包含了输入层、多个GRU层和输出层。代码首先定义了网络各层的神经元数量、文本标签、颜色属性(尽管实际并未使用)和填充颜色。接着,它使用循环语句为每一层生成了相应的子图(subgraph)描述,并为这些子图中的每一个节点分配了标签。最后,代码通过嵌套循环为每一对相邻层之间的节点绘制了边,表示它们之间的连接关系。整个DOT文件描述了整个网络的结构,并可以被Graphviz软件读取以生成对应的网络结构图。

模型训练与评估

模型训练

使用gruMODEL.fit方法对GRU神经网络模型进行训练。训练数据为X_trainy_train,共进行32个epoch的迭代,每个batch的大小设置为250。同时,使用X_testy_test作为验证数据集进行模型性能验证。此外,通过keras.callbacks.ModelCheckpoint回调函数,在每个epoch结束后保存模型权重到/content/model/model_{epoch}.h5文件中,文件名中包含epoch数。

从训练输出可以看出:

  • 第一个epoch的训练损失为0.0444,验证损失为0.0120。

  • 第二个epoch的训练损失下降到0.0118,验证损失也下降到0.0074。

这表明模型在训练过程中正在学习,并且逐渐优化损失函数。

模型损失可视化

通过matplotlib库绘制了训练损失和验证损失随epoch变化的曲线图。图中红色曲线代表训练损失,绿色曲线代表验证损失。从图中可以观察到,随着epoch的增加,两者均呈现下降趋势,说明模型正在逐渐优化。

模型加载与预测

使用tensorflow.keras.models.load_model方法加载了训练好的模型(第32个epoch的模型),并使用gruMODEL.predict方法对测试集X_test进行预测。通过squeeze方法去除预测结果中可能存在的单一维度,然后使用mean_absolute_error计算了预测值与真实值之间的平均绝对误差(MAE),结果为0.02262356696266076。

均方误差(MSE)计算

进一步,使用sklearn.metrics.mean_squared_error计算了预测值与真实值之间的均方误差(MSE),并将其赋值给SCORE_MSE变量。从输出结果可以看到,MSE的值为SCORE_MSE,但在给出的代码片段中并未直接显示该值的具体数值。不过,根据上下文推测,它应该是一个数值结果,代表模型在测试集上的均方误差性能。

结果解释与输出

bac108959a8c4a194d68646e17a6d410.png

上述结果表示在测试集X_test上,模型gruMODEL的预测结果preds与真实值y_test之间的均方误差(MSE)为0.00082,这是一个非常小的值,表明模型的预测性能很好。

  1. python复制代码
  2. from sklearn.metrics import r2_score
  3. r2_score = r2_score(y_test, preds)
  4. r2_score * 100

039ecc088905951e33fc140f13252f76.png

这里计算了模型预测结果preds与真实值y_test之间的决定系数(R²),并将其转换为百分比形式。R²值为98.52%,接近100%,说明模型的预测结果非常接近真实值,模型的拟合效果非常好。

  1. python复制代码
  2. y_test.ravel().shape

8f6522df1760d074404d56b2e86d16bd.png

这表示测试集y_test经过ravel方法展平后是一个包含300个元素的一维数组,即测试集包含300个样本。

这里使用scaling.inverse_transform方法将经过缩放处理的测试集目标值y_test转换回原始尺度,并打印其类型。输出结果显示y_testt的类型是numpy.ndarray,即一个NumPy数组,表示转换成功。

同样地,这里使用scaling.inverse_transform方法将模型对测试集X_test的预测结果preds(通常是在缩放后的尺度上)转换回原始尺度,以便与原始尺度的真实值进行比较或可视化。

  1. python复制代码
  2. line_plot(y_testt, preds, 'test', 'prediction', title='')

这行代码调用了一个名为line_plot的函数(该函数在提供的代码段中未定义,但根据命名和参数可以推测其功能),用于绘制测试集的真实值y_testt与模型预测值preds的折线图。图表的标题为空,x轴标签为'test'(可能表示测试集样本),y轴标签为'prediction'(表示预测值)。通过这条命令,我们可以直观地比较真实值与预测值之间的差异,进一步评估模型的性能。

c9fee9919b07542b5d98b5d7f042dce1.png

对3月27日的比特币价格(BTC/USDT)进行了预测,并计算了预测结果的准确率。

首先,我们给出了3月27日的预测价格和实际价格:

  • 预测价格:基于GRU模型的预测结果显示,3月27日的比特币价格预测为46351.2 BTC/USDT。

  • 实际价格:在伊斯坦布尔时间3月27日凌晨2点22分,比特币的实际交易价格为46564.00 BTC/USDT。

接下来,我们详细描述了预测过程的代码实现:

predictions = np.array([[predictions]]) * prediction[0][0] / prediction_new[0][0][0]  # 对预测结果进行比例调整

636f4f5d5262bc88ccb662643a9494ab.png

以上代码首先定义了一个假设的预测数据prediction,然后对该数据进行了一系列处理,包括逆缩放、重新计算预测值以及比例调整,最终得到了3月27日的预测价格。

接下来,我们计算了预测准确率:

a827db7aea9a6307019b162647cc9583.png

计算结果显示,3月27日的预测准确率为0.99,这表示该模型在预测比特币价格时具有较高的准确性。通过比较实际价格与预测价格,我们可以得出模型在价格预测方面的性能表现。

结论

GRU通过将遗忘门和输入门合并为一个单一的更新门,简化了传统LSTM网络的结构,使得其在捕捉时间依赖关系时计算效率更高。


资料获取

在公众号后台回复“领资料”,可免费获取数据分析、机器学习、深度学习等学习资料。

a50309f8a067d7b426b3f1da47454177.jpeg

点击文末“阅读原文”

获取全文完整代码数据资料。

本文选自《Python用GRU神经网络模型预测比特币价格时间序列数据2案例可视化》。

774f1efb10802e431284555ce0637902.jpeg

99ffbf9ee2780254ecd692477e6a9a8a.png

点击标题查阅往期内容

【视频】Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析|数据分享

深度学习实现自编码器Autoencoder神经网络异常检测心电图ECG时间序列

spss modeler用决策树神经网络预测ST的股票

Python中TensorFlow的长短期记忆神经网络(LSTM)、指数移动平均法预测股票市场和可视化

RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测

结合新冠疫情COVID-19股票价格预测:ARIMA,KNN和神经网络时间序列分析

深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据

用PyTorch机器学习神经网络分类预测银行客户流失模型

PYTHON用LSTM长短期记忆神经网络的参数优化方法预测时间序列洗发水销售数据

Python用Keras神经网络序列模型回归拟合预测、准确度检查和结果可视化

R语言深度学习卷积神经网络 (CNN)对 CIFAR 图像进行分类:训练与结果评估可视化

深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据

Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析

R语言深度学习Keras循环神经网络(RNN)模型预测多输出变量时间序列

R语言KERAS用RNN、双向RNNS递归神经网络、LSTM分析预测温度时间序列、 IMDB电影评分情感

Python用Keras神经网络序列模型回归拟合预测、准确度检查和结果可视化

Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析

R语言中的神经网络预测时间序列:多层感知器(MLP)和极限学习机(ELM)数据分析报告

R语言深度学习:用keras神经网络回归模型预测时间序列数据

Matlab用深度学习长短期记忆(LSTM)神经网络对文本数据进行分类

R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)

MATLAB中用BP神经网络预测人体脂肪百分比数据

Python中用PyTorch机器学习神经网络分类预测银行客户流失模型

R语言实现CNN(卷积神经网络)模型进行回归数据分析

SAS使用鸢尾花(iris)数据集训练人工神经网络(ANN)模型

【视频】R语言实现CNN(卷积神经网络)模型进行回归数据分析

Python使用神经网络进行简单文本分类

R语言用神经网络改进Nelson-Siegel模型拟合收益率曲线分析

R语言基于递归神经网络RNN的温度时间序列预测

R语言神经网络模型预测车辆数量时间序列

R语言中的BP神经网络模型分析学生成绩

matlab使用长短期记忆(LSTM)神经网络对序列数据进行分类

R语言实现拟合神经网络预测和结果可视化

用R语言实现神经网络预测股票实例

使用PYTHON中KERAS的LSTM递归神经网络进行时间序列预测

python用于NLP的seq2seq模型实例:用Keras实现神经网络机器翻译

用于NLP的Python:使用Keras的多标签文本LSTM神经网络分类

c25afcd178397efbbe03bf1c22a67135.png

f265e91f204390e3aa6fc0cf066b802a.jpeg

60ade09e96d6b715b4411341912fe3d6.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/713534
推荐阅读
相关标签
  

闽ICP备14008679号