当前位置:   article > 正文

深度学习-[源码+数据集]基于LSTM神经网络黄金价格预测实战_lstm数据集

lstm数据集

作者主页:编程千纸鹤

作者简介:Java、前端、Python开发多年,做过高程,项目经理,架构师

主要内容:Java项目开发、Python项目开发、大学数据和AI项目开发、单片机项目设计、面试技术整理、最新技术分享

收藏点赞不迷路  关注作者有好处

文末获得源码

循环神经网络(Recurrent Neural Networks,简称RNNs)是一类用于处理序列数据的神经网络。与传统的神经网络(如全连接神经网络或卷积神经网络)不同,RNNs具有记忆能力,能够捕获序列数据中的时间依赖性和模式。这使得RNNs在自然语言处理、语音识别、时间序列预测等领域具有广泛的应用。

一、RNNs的基本结构

RNNs的基本结构包括输入层、隐藏层和输出层。其中,隐藏层是RNNs的核心部分,它通过循环的方式连接,使得每个时间步的隐藏层都能接收上一时间步的隐藏层状态作为输入。这种结构使得RNNs能够捕获序列数据中的时间依赖性。

二、RNNs的工作原理

  1. 输入层:接收当前时间步的输入数据(如一个单词、一个时间点的观测值等)。

  2. 隐藏层:根据当前时间步的输入数据和上一时间步的隐藏层状态,计算当前时间步的隐藏层状态。这个状态包含了从序列开始到当前时间步的所有信息。隐藏层状态的计算通常使用非线性激活函数(如tanh或ReLU)进行。

  3. 输出层:根据当前时间步的隐藏层状态,计算当前时间步的输出。输出层可以是一个简单的全连接层,也可以是更复杂的结构(如softmax层用于分类任务)。

  4. 循环连接:隐藏层的状态通过循环连接传递给下一个时间步的隐藏层。这种循环连接使得RNNs能够捕获序列数据中的时间依赖性。

三、RNNs的变种

由于RNNs在处理长序列时存在梯度消失和梯度爆炸的问题,研究者们提出了许多RNNs的变种来改进这些问题,包括:

  1. 长短期记忆网络(Long Short-Term Memory,LSTM):通过引入门控机制(如输入门、遗忘门和输出门)来控制信息的传递和遗忘,从而有效地解决了梯度消失和梯度爆炸的问题。

  2. 门控循环单元(Gated Recurrent Unit,GRU):GRU是LSTM的一种简化版本,它合并了LSTM中的遗忘门和输入门,使得模型结构更加简单,但性能与LSTM相当。

  3. 双向循环神经网络(Bidirectional RNNs):双向RNNs同时考虑序列的前向和后向信息,从而能够捕获更丰富的上下文信息。

四、RNNs的应用

RNNs在自然语言处理、语音识别、时间序列预测等领域具有广泛的应用。例如,在机器翻译任务中,RNNs可以将一种语言的句子编码为向量表示,然后解码为另一种语言的句子;在语音识别任务中,RNNs可以将音频信号转换为文本序列;在时间序列预测任务中,RNNs可以利用历史数据来预测未来的趋势。

案例代码实现:

模型训练:

  1. import numpy as np
  2. import pandas as pd
  3. import matplotlib.pyplot as plt
  4. from sklearn.preprocessing import MinMaxScaler
  5. from keras.layers import Dense,LSTM
  6. import keras
  7. #解决中文显示问题
  8. plt.rcParams['font.sans-serif'] = ['SimHei']
  9. plt.rcParams['axes.unicode_minus'] = False
  10. #加载数据
  11. dataset = pd.read_csv("LBMA-GOLD.csv",index_col=[0]) #将第一列作为索引列和标题列
  12. #print(dataset)
  13. #设置训练集的长度
  14. training_len = 1056
  15. #获取训练集
  16. training_set = dataset.iloc[0:training_len, [0]]
  17. #设置训练集特征和训练集标签
  18. x_train = []
  19. y_train = []
  20. #设置测试集特征和训练集标签
  21. x_test = []
  22. y_test = []
  23. #利用for循环进行训练集特征和标签的制作,提取数据中连练五天作为特征
  24. for i in range(5,len(train_set_scaled)):
  25. x_train.append(train_set_scaled[i-5:i,0])
  26. y_train.append(train_set_scaled[i,0])
  27. # 绘制训练集和测试集的loss值对比图
  28. plt.plot(history.history['loss'], label='train')
  29. plt.plot(history.history['val_loss'], label='val')
  30. plt.title("LSTM神经网络loss值")
  31. plt.legend()
  32. plt.show()

数据测试:

  1. # 导入库
  2. import pandas as pd
  3. import numpy as np
  4. import matplotlib.pyplot
  5. from sklearn.preprocessing import MinMaxScaler
  6. from sklearn.metrics import mean_squared_error
  7. from math import sqrt
  8. from keras.models import load_model
  9. import matplotlib.pyplot as plt
  10. # 解决中文显示问题
  11. plt.rcParams['font.sans-serif'] = ['SimHei']
  12. plt.rcParams['axes.unicode_minus'] = False
  13. # 加载历史数据文件
  14. dataset = pd.read_csv('LBMA-GOLD.csv', index_col='Date')
  15. # print(dataset)
  16. # 设置训练集的长度
  17. training_len = 1256 -200
  18. # 获取测试集数据
  19. test_set = dataset.iloc[training_len:, [0]]
  20. # 将数据集进行归一化,方便神经网络的训练
  21. sc = MinMaxScaler(feature_range=(0, 1))
  22. test_set = sc.fit_transform(test_set)
  23. # 设置放置测试数据特征和测试数据标签的列表
  24. x_test = []
  25. y_test = []
  26. # 同理划分测试集数据
  27. for i in range(5, len(test_set)):
  28. x_test.append(test_set[i - 5:i, 0])
  29. y_test.append(test_set[i, 0])
  30. # 测试集变array并reshape为符合要求:[送入样本数, 循环核时间展开步数, 每个时间步输入特征个数]
  31. x_test, y_test = np.array(x_test), np.array(y_test)
  32. x_test = np.reshape(x_test, (x_test.shape[0], 5, 1))
  33. # 导入模型
  34. model = load_model('model.h5')
  35. # 打印模型的评价指标
  36. rmse = sqrt(mean_squared_error(prediction, real))
  37. mape = np.mean(np.abs((real-prediction)/prediction))
  38. print('rmse', rmse)
  39. print('mape', mape)
  40. # 绘制真实值和预测值的对比
  41. plt.plot(real, label='真实值')
  42. plt.plot(prediction, label='预测值')
  43. plt.title("基于LSTM神经网络的黄金价格预测")
  44. plt.legend()
  45. plt.show()

预测结果:

五,相关作品展示

基于Java开发、Python开发、PHP开发、C#开发等相关语言开发的实战项目

基于Nodejs、Vue等前端技术开发的前端实战项目

基于微信小程序和安卓APP应用开发的相关作品

基于51单片机等嵌入式物联网开发应用

基于各类算法实现的AI智能应用

基于大数据实现的各类数据管理和推荐系统

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/965612
推荐阅读
相关标签
  

闽ICP备14008679号