当前位置:   article > 正文

【跟马少平老师学AI】-【神经网络是怎么实现的】(九)长短期记忆网络

【跟马少平老师学AI】-【神经网络是怎么实现的】(九)长短期记忆网络

一句话归纳:

1)RNN也会存在梯度消失的问题。

2)同一句话,对于不同的任务,句中不同的词起的作用也不一样。

3)LSTM(长短期记忆)子网络:

  • 门,让输入经过运算,得到在[0,1]区间内的输出值。
  • 元素S与门的输出进行相乘运算,便可以控制S通过的量。

4)LSTM神经网络:

  • 遗忘门,输入是h(t-1),x(t),输出f(t)。
  • 前一个状态s(t-1)和遗忘门的输出相乘。
  • 输入处理单元的输出和输入门相乘。
  • 相加后得得到新的状态s(t),即s(t)=f(t)*s(t-1)+g(t)*i(t)。

  • 输出门的输入与遗忘门一样。
  • h(t)=q(t)*tanh(s(t))。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/532672
推荐阅读
相关标签
  

闽ICP备14008679号