当前位置:   article > 正文

【python量化】将Transformer模型用于股票价格预测_transformer预测模型中的epoch

transformer预测模型中的epoch

49c26e20e2f510050d2b9a01ca1c869d.png

写在前面

下面的这篇文章主要教大家如何搭建一个基于Transformer的简单预测模型,并将其用于股票价格预测当中。原代码在文末进行获取。

1

Transformer模型

Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。这篇文章的目的主要是将带大家通过Pytorch框架搭建一个基于Transformer的简单股票价格预测模型

a73a39ff17ffb20a0fb96a59af3102a7.png

Transformer的基本架构

具体地,我们用到了上证指数的收盘价数据为例,进行预测t+1时刻的收盘价。需要注意的是,本文只是通过这样一个简单的基本模型,带大家梳理一下数据预处理,模型构建以及模型评估的流程。模型还有很多可以改进的地方,例如选择更有意义的特征,如何进行有效的多步预测等。

2

环境准备

本地环境:

  1. Python 3.7
  2. IDE:Pycharm

库版本:

  1. numpy 1.18.1
  2. pandas 1.0.3
  3. sklearn 0.22.2
  4. matplotlib 3.2.1
  5. torch 1.10.1

3

代码实现

1. 导入库以及定义超参

首先,需要导入用到库,以及模型的一些超参数的设置。其中,input_window和output_window分别用于设置输入数据的长度以及输出数据的长度。当然,这些参数大家也可以根据实际应用场景进行修改。

  1. import torch
  2. import torch.nn as nn
  3. import numpy as np
  4. import time
  5. import math
  6. import matplotlib.pyplot as plt
  7. from sklearn.preprocessing import MinMaxScaler
  8. import pandas as pd
  9. torch.manual_seed(0)
  10. np.random.seed(0)
  11. input_window = 20
  12. output_window = 1
  13. batch_size = 64
  14. device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  15. print(device)

2. 模型构建

Transformer中很重要的一个组件是提出了一种新的位置编码的方式。我们知道,循环神经网络本身就是一种顺序结构,天生就包含了词在序列中的位置信息。当抛弃循环神经网络结构,完全采用Attention取而代之,这些词序信息就会丢失,模型就没有办法知道每个词在句子中的相对和绝对的位置信息。因此,有必要把词序信号加到词向量上帮助模型学习这些信息,位置编码(Positional Encoding)就是用来解决这种问题的方法。它的原理是将生成的不同频率的正弦和余弦数据作为位置编码添加到输入序列中,从而使得模型可以捕捉输入变量的相对位置关系。

  1. class PositionalEncoding(nn.Module):
  2. def __init__(self, d_model, max_len=5000):
  3. super(PositionalEncoding, self).__init__()
  4. pe = torch.zeros(max_len, d_model)
  5. position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)
  6. div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))
  7. pe[:, 0::2] = torch.sin(position * div_term)
  8. pe[:, 1::2] = torch.cos(position * div_term)
  9. pe = pe.unsqueeze(0).transpose(0, 1)
  10. self.register_buffer('pe', pe)
  11. def forward(self, x):
  12. return x + self.pe[:x.size(0), :]

之后,搭建Transformer的基本结构,在Pytorch中有已经实现的封装好的Transformer组件,可以很方便地进行调用和修改。其中需要注意的是,文中并没有采用原论文中的Encoder-Decoder的架构,而是将Decoder用了一个全连接层进行代替,用于输出预测值。另外,其中的create_mask将输入进行mask,从而避免引入未来信息。

  1. class TransAm(nn.Module):
  2. def __init__(self, feature_size=250, num_layers=1, dropout=0.1):
  3. super(TransAm, self).__init__()
  4. self.model_type = 'Transformer'
  5. self.src_mask = None
  6. self.pos_encoder = PositionalEncoding(feature_size)
  7. self.encoder_layer = nn.TransformerEncoderLayer(d_model=feature_size, nhead=10, dropout=dropout)
  8. self.transformer_encoder = nn.TransformerEncoder(self.encoder_layer, num_layers=num_layers)
  9. self.decoder = nn.Linear(feature_size, 1)
  10. self.init_weights()
  11. def init_weights(self):
  12. initrange = 0.1
  13. self.decoder.bias.data.zero_()
  14. self.decoder.weight.data.uniform_(-initrange, initrange)
  15. def forward(self, src):
  16. if self.src_mask is None or self.src_mask.size(0) != len(src):
  17. device = src.device
  18. mask = self._generate_square_subsequent_mask(len(src)).to(device)
  19. self.src_mask = mask
  20. src = self.pos_encoder(src)
  21. output = self.transformer_encoder(src, self.src_mask)
  22. output = self.decoder(output)
  23. return output
  24.   def _generate_square_subsequent_mask(self, sz):
  25. mask = (torch.triu(torch.ones(sz, sz)) == 1).transpose(0, 1)
  26. mask = mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0))
  27. return mask

3. 数据预处理

接下来需要对数据进行预处理,首先定义一个窗口划分的函数。它的作用是将输入按照延迟output_windw的方式来划分数据以及其标签,文中是进行单步预测,所以假设输入是1到20,则其标签就是2到21,以适应Transformer的seq2seq的形式的输出。

  1. def create_inout_sequences(input_data, tw):
  2. inout_seq = []
  3. L = len(input_data)
  4. for i in range(L - tw):
  5. train_seq = input_data[i:i + tw]
  6. train_label = input_data[i + output_window:i + tw + output_window]
  7. inout_seq.append((train_seq, train_label))
  8. return torch.FloatTensor(inout_seq)

之后划分训练集和测试集,其中前70%条数据用于模型训练,后面的数据用于模型测试。具体地,我们用到了前input_window个收盘价来预测下一时刻的收盘价数据。

  1. def get_data():
  2. series = pd.read_csv('./000001_Daily.csv', usecols=['Close'])
  3. # series = pd.read_csv('./daily-min-temperatures.csv', usecols=['Temp'])
  4. scaler = MinMaxScaler(feature_range=(-1, 1))
  5. series = scaler.fit_transform(series.values.reshape(-1, 1)).reshape(-1)
  6. train_samples = int(0.7 * len(series))
  7. train_data = series[:train_samples]
  8. test_data = series[train_samples:]
  9. train_sequence = create_inout_sequences(train_data, input_window)
  10. train_sequence = train_sequence[:-output_window]
  11. test_data = create_inout_sequences(test_data, input_window)
  12. test_data = test_data[:-output_window]
  13. return train_sequence.to(device), test_data.to(device)

接下来实现一个databatch generator,便于从数据中按照batch的形式进行读取数据。

  1. def get_batch(source, i, batch_size):
  2. seq_len = min(batch_size, len(source) - 1 - i)
  3. data = source[i:i + seq_len]
  4. input = torch.stack(torch.stack([item[0] for item in data]).chunk(input_window, 1))
  5. target = torch.stack(torch.stack([item[1] for item in data]).chunk(input_window, 1))
  6.     return input, target

4. 模型训练以及评估

下面是模型训练的代码。具体地,就是通过遍历训练集,通过既定的loss,对参数进行反向传播,其中用到了梯度裁剪的技巧用于防止梯度爆炸,然后每间隔几个间隔打印一下loss。

  1. def train(train_data):
  2. model.train()
  3. for batch_index, i in enumerate(range(0, len(train_data) - 1, batch_size)):
  4. start_time = time.time()
  5. total_loss = 0
  6. data, targets = get_batch(train_data, i, batch_size)
  7. optimizer.zero_grad()
  8. output = model(data)
  9. loss = criterion(output, targets)
  10. loss.backward()
  11. torch.nn.utils.clip_grad_norm_(model.parameters(), 0.7)
  12. optimizer.step()
  13. total_loss += loss.item()
  14. log_interval = int(len(train_data) / batch_size / 5)
  15. if batch_index % log_interval == 0 and batch_index > 0:
  16. cur_loss = total_loss / log_interval
  17. elapsed = time.time() - start_time
  18. print('| epoch {:3d} | {:5d}/{:5d} batches | lr {:02.6f} | {:5.2f} ms | loss {:5.5f} | ppl {:8.2f}'
  19. .format(epoch, batch_index, len(train_data) // batch_size, scheduler.get_lr()[0], elapsed * 1000 / log_interval, cur_loss, math.exp(cur_loss)))

接下来是对模型进行评估的代码。

  1. def evaluate(eval_model, data_source):
  2. eval_model.eval()
  3. total_loss = 0
  4. eval_batch_size = 1000
  5. with torch.no_grad():
  6. for i in range(0, len(data_source) - 1, eval_batch_size):
  7. data, targets = get_batch(data_source, i, eval_batch_size)
  8. output = eval_model(data)
  9. total_loss += len(data[0]) * criterion(output, targets).cpu().item()
  10. return total_loss / len(data_source)

最后,是模型运行过程的可视化。

  1. def plot_and_loss(eval_model, data_source, epoch):
  2. eval_model.eval()
  3. total_loss = 0.
  4. test_result = torch.Tensor(0)
  5. truth = torch.Tensor(0)
  6. with torch.no_grad():
  7. for i in range(0, len(data_source) - 1):
  8. data, target = get_batch(data_source, i, 1)
  9. output = eval_model(data)
  10. total_loss += criterion(output, target).item()
  11. test_result = torch.cat((test_result, output[-1].view(-1).cpu()), 0)
  12. truth = torch.cat((truth, target[-1].view(-1).cpu()), 0)
  13. plt.plot(test_result, color="red")
  14. plt.plot(truth, color="blue")
  15. plt.grid(True, which='both')
  16. plt.axhline(y=0, color='k')
  17. plt.savefig('graph/transformer-epoch%d.png' % epoch)
  18. plt.close()
  19. return total_loss / i

5. 模型运行

最后,对模型进行运行。其中用到了mse作为loss,adam作为优化器,以及设定学习率的调度器,最后运行200个epoch,每隔10个epoch在测试集上评估一下模型。

  1. train_data, val_data = get_data()
  2. model = TransAm().to(device)
  3. criterion = nn.MSELoss()
  4. lr = 0.005
  5. optimizer = torch.optim.AdamW(model.parameters(), lr=lr)
  6. scheduler = torch.optim.lr_scheduler.StepLR(optimizer, 1, gamma=0.95)
  7. epochs = 200
  8. for epoch in range(1, epochs + 1):
  9. epoch_start_time = time.time()
  10. train(train_data)
  11. if (epoch % 10 is 0):
  12. val_loss = plot_and_loss(model, val_data, epoch)
  13. else:
  14. val_loss = evaluate(model, val_data)
  15. print('-' * 89)
  16. print('| end of epoch {:3d} | time: {:5.2f}s | valid loss {:5.5f} | valid ppl {:8.2f}'.format(epoch, (
  17. time.time() - epoch_start_time), val_loss, math.exp(val_loss)))
  18. print('-' * 89)
  19. scheduler.step()

下面是运行的结果,可以看到loss明显降低了。

  1. cuda
  2. | epoch   1 |     2/   10 batches | lr 0.005000 |  7.83 ms | loss 39.99368 | ppl 233902099994043520.00
  3. | epoch 1 | 4/ 10 batches | lr 0.005000 | 7.81 ms | loss 7.20889 | ppl 1351.39
  4. | epoch 1 | 6/ 10 batches | lr 0.005000 | 11.10 ms | loss 1.68758 | ppl 5.41
  5. | epoch 1 | 8/ 10 batches | lr 0.005000 | 9.35 ms | loss 0.00833 | ppl 1.01
  6. | epoch 1 | 10/ 10 batches | lr 0.005000 | 7.81 ms | loss 1.18041 | ppl 3.26
  7. -----------------------------------------------------------------------------------------
  8. | end of epoch 1 | time: 1.96s | valid loss 2.58557 | valid ppl 13.27
  9. ...
  10. | end of epoch 198 | time: 0.30s | valid loss 0.00032 | valid ppl 1.00
  11. -----------------------------------------------------------------------------------------
  12. | epoch 199 | 2/ 10 batches | lr 0.000000 | 15.62 ms | loss 0.00057 | ppl 1.00
  13. | epoch 199 | 4/ 10 batches | lr 0.000000 | 15.62 ms | loss 0.00184 | ppl 1.00
  14. | epoch 199 | 6/ 10 batches | lr 0.000000 | 15.62 ms | loss 0.00212 | ppl 1.00
  15. | epoch 199 | 8/ 10 batches | lr 0.000000 | 7.81 ms | loss 0.00073 | ppl 1.00
  16. | epoch 199 | 10/ 10 batches | lr 0.000000 | 7.81 ms | loss 0.00057 | ppl 1.00
  17. -----------------------------------------------------------------------------------------
  18. | end of epoch 199 | time: 0.30s | valid loss 0.00032 | valid ppl 1.00
  19. -----------------------------------------------------------------------------------------
  20. | epoch 200 | 2/ 10 batches | lr 0.000000 | 15.62 ms | loss 0.00053 | ppl 1.00
  21. | epoch 200 | 4/ 10 batches | lr 0.000000 | 7.81 ms | loss 0.00177 | ppl 1.00
  22. | epoch 200 | 6/ 10 batches | lr 0.000000 | 7.81 ms | loss 0.00224 | ppl 1.00
  23. | epoch 200 | 8/ 10 batches | lr 0.000000 | 15.62 ms | loss 0.00069 | ppl 1.00
  24. | epoch 200 | 10/ 10 batches | lr 0.000000 | 7.81 ms | loss 0.00049 | ppl 1.00
  25. -----------------------------------------------------------------------------------------
  26. | end of epoch 200 | time: 0.62s | valid loss 0.00032 | valid ppl 1.00
  27. -----------------------------------------------------------------------------------------

最后是模型的拟合效果,从实验结果中可以看出我们搭建的简单的Transformer模型可以实现相对不错的数据拟合效果。

fed731fd62b0a1bcf0e97b66535b3e67.png

4

总结

在这篇文章中,我们介绍了如何基于Pytorch框架搭建一个基于Transformer的股票预测模型,并通过真实股票数据对模型进行了实验,可以看出Transformer模型对股价预测具有一定的效果。另外,文中只是做了一个简单的demo,其中仍然有很多可以改进的地方,如采用更多有意义的输入数据,优化其中的一些组件等。除此之外,目前基于Transformer的模型层出不穷,其中也有很多值得我们去学习,大家也可以采用更先进的Transformer模型进行试验。

reference:

[1] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. arXiv preprint arXiv:1706.03762, 2017.

[2] https://github.com/oliverguhr/transformer-time-series-prediction

完整代码请在《人工智能量化实验室》公众号后台回复“101”关键字。本文内容仅仅是技术探讨和学习,并不构成任何投资建议。

8f13a6475dd46a492920b195815b08a9.png

b01feb70300b8a0402df4f1d99356864.png

了解更多人工智能与
量化金融知识

<-请扫码关注

让我知道你在看

4fefebfabbab4fe065df1a8303beaf89.gif

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/489271
推荐阅读
相关标签
  

闽ICP备14008679号