赞
踩
基本的RNN 模型就是在神经网络上加个loop.
缺点也很明显,模型也太简单了。rnn,就是为了用上history information,但是只用一个简单的激活函数去用到了上一个timestamp的历史值,想得到好的训练结果比较难。(以下摘自kdd课件)
存在3个特征门控制:
forget feature:用来决策‘忘掉’一些变量信息。
input feature:用来决策‘选择’输入变量的部分信息作为真正的输入,决策输入变量的权重。
output feature: 用来决策‘选择’输出变量的部分信息作为真正的输出,决策输出变量的权重。
一共包括了六个门gate:
forget gate:
input gate:
input activate gate:
input state gate:
output (state) gate:
final output (state) gate:
下面图给出了一个生动形象的lstm例子:
是LSTM 的变形,准确来说就是删了些东西,简化了LSTM。因而训练时间更短,需要数据少(达到理想结果)。
只有四个门:
reset gate:
input activation gate:
update gate:
final output gate:
下面同样给一个图,介绍这个model:
补充:
激活函数的种类包括:
threshold function:
linear function:
Rectifier Function/Rectified Linear Unit (ReLU):
sigmod function:
tanh function:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。