当前位置:   article > 正文

深度学习(Deep Learning)读书思考八:循环神经网络三(RNN应用)_rnn有哪些典型的变形网络

rnn有哪些典型的变形网络

概述

通过前两小节的介绍,可以清楚的了解RNN模型的网络结构以及LSTM。本小节主要介绍RNN其他变形以及应用,包括

1.GRU单元
2.序列到序列(Seq2Seq)模型
3.注意力(Attention)模型
4.RNN在NLP中的应用
5.总结

GRU单元

GRU通过引入重置门和遗忘门来解决长期依赖问题,相对于LSTM有更少参数并且在某些问题上,效果好于LSTM。
这里写图片描述

  1. 重置门
    rt=σ(Wrx+Urht1)
    如果重置门关闭,会忽略掉历史状态,即将历史不相干的信息不会影响未来的输出。
  2. 遗忘门
    zt=σ(Wzx+Uzht1)
    遗忘门能够控制历史信息对当前输出的影响,如果遗忘门接近1,此时会把历史信息传递下去
  3. 节点状态
    h^t=tanh(Wx+rtoUht1)
  4. 输出
    ht=ztoht1+(1zt)oh^t

Seq2Seq模型

序列到序列模型可以解决很多不定长输入到输出的变换问题,等价于编码和解码模型,即编码阶段将不定长输入编码成定长向量;解码阶段对输出进行解码。

这里写图片描述

1.其中序列ABC是输入序列,WXYZ是输出序列,EOS是结束符号
2.模型分为两个阶段1)encode阶段,该阶段将输入序列编码成一个定长维度的向量2)decode阶段,根据编码后向量预测输出向量。
3.编码过程,可以使用标准的RNN模型,例如

ht=f(Whxxt+Whhht1)yt=Whyht

4.解码过程,也可以使用一个标准的RNN模型进行解码,例如RNN-LM
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/269564
推荐阅读
相关标签
  

闽ICP备14008679号