当前位置:   article > 正文

使用Keras进行深度学习:(七)GRU讲解及实践_keras gru

keras gru

Ray

介绍GRU(Gated Recurrent Unit) 是由 Cho, et al. (2014) 提出,是LSTM的一种变体。GRU的结构与LSTM很相似,LSTM有三个门,而GRU只有两个门且没有细胞状态,简化了LSTM的结构。而且在许多情况下,GRU与LSTM有同样出色的结果。GRU有更少的参数,因此相对容易训练且过拟合问题要轻一点。

目录

  • GRU****原理讲解
  • Keras****实现GRU

一、GRU原理讲解

下图展示了GRU的网络结构,GRU的网络结构和LSTM的网络结构很相似,LSTM中含有三个门结构和细胞状态,而GRU只有两个门结构:更新门和重置门,分别为图中的z_t和r_t,结构上比LSTM简单。 将GRU网络结构具体运算操作用下图进行表示。接下来将会针对该图每一部分进行详细的讲解。 首先说明图中每个符号的意义:

1. 更新门(update gate):

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/347766
推荐阅读
相关标签
  

闽ICP备14008679号