当前位置:   article > 正文

循环神经网络(RNN)基础案例_void rnn::train

void rnn::train

本文采用一个较为简单的例子,来介绍循环神经网络。 文中的代码按顺序复制下来可以运行,并得出结果。

关于循环神经网络的原理,后续会专门再介绍,详细关注我的博客。对于大多数程序员来说,通过程序来理解,可能更为直观。

例子: 输入3行4列的矩阵数据,如

         [1,  2,  5,  6],
         [5,  7,  7,  8],
         [3,  4,  5,  7]

          输出: 

          [1,   3,   7,  11], 
          [5, 12, 14,  15],
          [3,   7,   9,  12]     

    分析规律: 输出第1列为输入的第1列, 输出第2列为输入的第1列和第2列之和, 输出的第3列为输入的第2列和第3列之和,依次类推。那么如何通过神经网络来训练这个模型呢? 可以看到里面有LSTM(长短文本分析)的特征,所以,我们很自然的想到用循环神经网络来训练。因为数据量不多,这个地方用一层网络就可以了。 下面请看代码

首先导入依赖包:

  1. import tensorflow as tf
  2. from tensorflow.contrib import rnn
  3. tf.reset_default_graph()

创建一个模型类, 这个类中包含RNN训练参数初始化,损失函数及优化器的构建,模型生成方法,模型训练方法,以及测试方法

  1. class SeriesPredictor:
  2. def __init__(self, input_dim, seq_size, hidden_dim=10):
  3. # 网络参数
  4. self.input_dim = input_dim # 输入维度
  5. self.seq_size = seq_size # 时序长度
  6. self.hidden_dim = hidden_dim # 隐藏层维度
  7. # 权重参数W与输入X及标签Y
  8. self.W_out = tf.Variable(tf.random_normal([hidden_dim, 1]), name="W_out")
  9. self.b_out = tf.Variable(tf.random_normal([1]), name='b_out')
  10. self.x = tf.placeholder(tf.float32, [None, seq_size, input_dim])
  11. self.y = tf.placeholder(tf.float32, [None, seq_size])
  12. # 均方误差求损失值,并使用梯度下降
  13. self.cost = tf.reduce_mean(tf.square(self.model() - self.y))
  14. self.train_op = tf.train.AdamOptimizer().minimize(self.cost)
  15. self.saver = tf.train.Saver()
  16. def model(self):
  17. '''
  18. :param x: inpouts of size [T, batch_size, input_size]
  19. :param W: matrix of fully-connected output layer weights
  20. :param b: vector of fully-connected output layer biases
  21. '''
  22. # BasicLSTMCell基本的RNN类, 建立hidden_dim个CELL
  23. cell = rnn.BasicLSTMCell(self.hidden_dim)
  24. # dynamic_rnn 动态RNN, cell生成好的cell类对象, self.x是一个张量, 一般是三维张量[Batch_size, max_time(序列时间X0-Xt), X具体输入]
  25. outputs, states = tf.nn.dynamic_rnn(cell, self.x, dtype=tf.float32) # (?, seq_size, hidden_dim)
  26. num_examples = tf.shape(self.x)[0]
  27. tf_expand = tf.expand_dims(self.W_out, 0)
  28. tf_tile = tf.tile(tf_expand, [num_examples, 1, 1]) # 将第一维扩大为num_examples维 (?, hidden_dim, 1)
  29. out = tf.matmul(outputs, tf_tile) + self.b_out # (?, seq_size, 1)
  30. print(out)
  31. out = tf.squeeze(out)
  32. return out
  33. def train(self, train_x, train_y):
  34. with tf.Session() as sess:
  35. tf.get_variable_scope().reuse_variables() # 变量可重复利用
  36. sess.run(tf.global_variables_initializer())
  37. for i in range(1000):
  38. _, mse = sess.run([self.train_op, self.cost], feed_dict={self.x: train_x, self.y: train_y})
  39. if i % 100 == 0:
  40. print(i, mse)
  41. save_path = self.saver.save(sess, './model')
  42. print('Model saved to {}'.format(save_path))
  43. def test(self, test_x):
  44. with tf.Session() as sess:
  45. tf.get_variable_scope().reuse_variables()
  46. self.saver.restore(sess, './model')
  47. output = sess.run(self.model(), feed_dict={self.x: test_x})
  48. return output

最后写一个main函数,用训练数据训练网络,并用测试数据测试

  1. if __name__ == '__main__':
  2. predictor = SeriesPredictor(input_dim=1, seq_size=4, hidden_dim=10)
  3. train_x = [[[1], [2], [5], [6]],
  4. [[5], [7], [7], [8]],
  5. [[3], [4], [5], [7]]]
  6. train_y = [[1, 3, 7, 11],
  7. [5, 12, 14, 15],
  8. [3, 7, 9, 12]]
  9. predictor.train(train_x, train_y)
  10. test_x = [[[1], [2], [3], [4]],
  11. [[4], [5], [6], [7]]]
  12. test_y = [[[1], [3], [5], [7]],
  13. [[4], [9], [11], [13]]]
  14. pred_y = predictor.test(test_x)
  15. print("\n开始测试!\n")
  16. for i, x in enumerate(test_x):
  17. print("当前输入{}".format(x))
  18. print("应该输出{}".format(test_y[i]))
  19. print("训练模型的输出{}".format(pred_y[i]))

查看运行结果:

可以看到模型预测的结果与应该输入的结果是比较接近的。 在实际运用中,经常会调整一些参数,在不导致过拟合和欠拟合的条件下,使得网络模型更精确,比如加减神经元、调整网络层数、调整训练次数等。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/579306
推荐阅读
相关标签
  

闽ICP备14008679号