当前位置:   article > 正文

LSTM原理+实战(Python)_lstm python

lstm python

目录

1 LSTM原理

2 LSTM与RNN的区别

3  LSTM的具体结构介绍

3.1 LSTM在时间上的整体构架

 3.2 控制c和h的构架

3.2 遗忘门输出门输入门具体情况

4 LSTM实战

5 代码展示

5.1 数据预处理代码

5.2 LSTM 代码


1 LSTM原理

       LSTM(Long Short-Term Memory),作为一种特殊的循环神经网络(RNN)结构,通过引入遗忘门、输入门和输出门这三种类型的门控机制来控制信息的流动,从而有效解决了传统RNN在处理长序列时容易出现的梯度消失和梯度爆炸问题。这些门结构使得LSTM能够记住长期依赖的信息,并在自然语言处理、语音识别、机器翻译等众多领域中展现出强大的序列处理能力。

2 LSTM与RNN的区别

       LSTM 是RNN一种,大体结构几乎一样。区别是:它的“记忆细胞”改造过、该记的信息会一直传递,不该记的会被“门”截断。

       原始 RNN 的隐藏层只有一个状态,即 h,它对于短期的输入非常敏感。LSTM再增加一个状态,即 c,让它来保存长期的状态,称为 单元状态(cell state) 或内部记忆单元或内部状态。其中c 记录了当前时刻为止的所有历史信息。
        在标准的 RNN 中,这个重复的模块只有一 个非常简单的结构,例如一个 tanh 层。

        LSTMs 也具有这种链式结构,但是它的重复单元不同于标准RNN 网络里的单元只有一网络层,它的内部有四个网络层。以一种非常特殊的方式进行交互。

3  LSTM的具体结构介绍

3.1 LSTM在时间上的整体构架

       在 t 时刻, LSTM 输入 有三个: 当前时刻网络的输入值 x t ; 上一时刻LSTM 的输出值 h t −1;  以及上一时刻的单元状态 c t −1。 LSTM的 输出 有两个:当前时刻LSTM 输出值 h t ; 和当前时刻的单元状态 c t。

 3.2 控制c和h的构架

遗忘门(forget gate):①  遗忘门可以保存很久很久之前的信息。 ②  它决定了上一时刻的单元内部状态

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/767356
推荐阅读
相关标签