当前位置:   article > 正文

RNN:basic RNN,LSTM and GRU_basic_rnn_lstm_gru

basic_rnn_lstm_gru

RNN:basic RNN,LSTM and GRU


写在前面:这篇blog没有很多文字,都是图片,截取自我们一个课的ppt。本科的时候看lstm的paper也曾写过一些博客,但是感觉paper看完当时可能记住了,但很难帮助记忆。研究生上了一门kdd的课程,正好老师讲到了rnn,给的这些图和例子,非常浅显易懂。特此编辑一下,也算是知识的传播了。

BASIC RNN

基本的RNN 模型就是在神经网络上加个loop.
在这里插入图片描述

缺点也很明显,模型也太简单了。rnn,就是为了用上history information,但是只用一个简单的激活函数去用到了上一个timestamp的历史值,想得到好的训练结果比较难。(以下摘自kdd课件)
在这里插入图片描述

LSTM

存在3个特征门控制:
forget feature:用来决策‘忘掉’一些变量信息。
input feature:用来决策‘选择’输入变量的部分信息作为真正的输入,决策输入变量的权重。
output feature: 用来决策‘选择’输出变量的部分信息作为真正的输出,决策输出变量的权重。
一共包括了六个门gate:
forget gate:
在这里插入图片描述
input gate:
在这里插入图片描述
input activate gate:在这里插入图片描述
input state gate:
在这里插入图片描述
output (state) gate:
在这里插入图片描述
final output (state) gate:
在这里插入图片描述
下面图给出了一个生动形象的lstm例子:
在这里插入图片描述

GRU

是LSTM 的变形,准确来说就是删了些东西,简化了LSTM。因而训练时间更短,需要数据少(达到理想结果)。
只有四个门:
reset gate:
在这里插入图片描述
input activation gate:
在这里插入图片描述
update gate:
在这里插入图片描述
final output gate:
在这里插入图片描述
下面同样给一个图,介绍这个model:
在这里插入图片描述

补充:
激活函数的种类包括:
threshold function:在这里插入图片描述
linear function:在这里插入图片描述
Rectifier Function/Rectified Linear Unit (ReLU):
在这里插入图片描述
sigmod function:
在这里插入图片描述
tanh function:
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/295711
推荐阅读
  

闽ICP备14008679号