当前位置:   article > 正文

LSTM模型与前向反向传播算法

lstm反向传播算法

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达3f384fc79baaf2d76eaff14d9dea31e4.png


前  言

在循环神经网络(RNN)模型与前向反向传播算法中,我们总结了对RNN模型做了总结。由于RNN也有梯度消失的问题,因此很难处理长序列的数据,大牛们对RNN做了改进,得到了RNN的特例LSTM(Long Short-Term Memory),它可以避免常规RNN的梯度消失,因此在工业界得到了广泛的应用。下面我们就对LSTM模型做一个总结。

章节目录

  • 从RNN到LSTM

  • LSTM模型结构剖析

  • LSTM前向传播算法

  • LSTM反向传播算法推导关键点

  • LSTM小结


01.从RNN到LSTM

在RNN模型里,我们讲到了RNN具有如下的结构,每个序列索引位置t都有一个隐藏状态cf92fcbb88ffb6b7c8c26dec32910007.png

253f24a56cd22a18d4b3664045e1e731.png

如果我们略去每层都有e5adb10873cbfc218489e6e0c5c17ba4.png,则RNN的模型可以简化成如下图的形式:

691f40060d601f6c349795b096d96c0f.png

图中可以很清晰看出在隐藏状态2e3c39b3de402e2641d1687293c586c7.png0b90c6ef29132b21b319c678501ba9e5.png13e6714adbd521d9d9fbdae49f77a61c.png得到。得到a92712a641496c2e0eb6e58f204c0eed.png后一方面用于当前层的模型损失计算,另一方面用于计算下一层的702604cace5b3778f0593342fa165749.png

由于RNN梯度消失的问题,大牛们对于序列索引位置t的隐藏结构做了改进,可以说通过一些技巧让隐藏结构复杂了起来,来避免梯度消失的问题,这样的特殊RNN就是我们的LSTM。由于LSTM有很多的变种,这里我们以最常见的LSTM为例讲述。LSTM的结构如下图:

45723a27019d41df154d122072d8d1b9.png

可以看到LSTM的结构要比RNN的复杂的多,真佩服牛人们怎么想出来这样的结构,然后这样居然就可以解决RNN梯度消失的问题?由于LSTM怎么可以解决梯度消失是一个比较难讲的问题,我也不是很熟悉,这里就不多说,重点回LSTM的模型本身。


02.LSTM模型结构剖析

上面我们给出了LSTM的模型结构,下面我们就一点点的剖析LSTM模型在每个序列索引位置t时刻的内部结构。

从上图中可以看出,在每个序列索引位置t时刻向前传播的除了和RNN一样的  隐藏状态5586575ee0f211af04e03c809b4bee21.png,还多了另一个隐藏状态,如图中上面的长横线。这个隐藏状态我们一般称为细胞状态(Cell State),记为f80982bb93f453b6a2a7df1acb917efd.png。如下图所示:

e461cea9a075dbeafd419a7d7fa4e987.png

除了细胞状态,LSTM图中还有了很多奇怪的结构,这些结构一般称之为门控结构(Gate)。LSTM在在每个序列索引位置t的门一般包括遗忘门,输入门和输出门三种。下面我们就来研究上图中LSTM的遗忘门,输入门和输出门以及细胞态。

 2.1 LSTM之遗忘门

遗忘门(forget gate)顾名思义,是控制是否遗忘的,在LSTM中即以一定的概率控制是否遗忘上一层的隐藏细胞状态。遗忘门子结构如下图所示:

3b997eb52f1dab4cf712efbc05805488.png

图中输入的有上一序列的隐藏状态add69eb3effd8a175b73c561afe92f85.png和本序列数据a2c5deaec3086331fa70ef7add71e702.png,通过一个激活函数,一般是sigmoid,得到遗忘门的输出0e61411b009df41b7d74ba25c5dcbb19.png。由于sigmoid的输出e0b073f28ebf82fcbf7643ce133684a1.png在[0,1]之间,因此这里的输出f^{(t)}代表了遗忘上一层隐藏细胞状态的概率。用数学表达式即为:

3e3b44749344b519df71990ee58cefef.png

其中Wf,Uf,bf为线性关系的系数和偏倚,和RNN中的类似。σ为sigmoid激活函数。

2.2 LSTM之输入门

输入门(input gate)负责处理当前序列位置的输入,它的子结构如下图:

acf2e0b9e00a1302b0cb166bc0496722.png

从图中可以看到输入门由两部分组成,第一部分使用了sigmoid激活函数,输出为i(t),第二部分使用了tanh激活函数,输出为a(t), 两者的结果后面会相乘再去更新细胞状态。用数学表达式即为:

e785ddc5db5f5492f233c6e3a8912f7c.png

其中Wi,Ui,bi,Wa,Ua,ba,为线性关系的系数和偏倚,和RNN中的类似。σ为sigmoid激活函数。

2.3 LSTM之细胞状态更新

在研究LSTM输出门之前,我们要先看看LSTM之细胞状态。前面的遗忘门和输入门的结果都会作用于细胞状态C(t)。我们来看看从细胞状态C(t−1)如何得到C(t)。如下图所示:

7b88472d709de85e169aafad9a79bfa2.png

细胞状态C(t)由两部分组成,第一部分是C(t−1)和遗忘门输出f(t)的乘积,第二部分是输入门的i(t)和a(t)的乘积即:

deafccf2cd7c4cb09b714e2a974428ad.png

其中,⊙为Hadamard积,在DNN中也用到过。

2.4 LSTM之输出门

有了新的隐藏细胞状态C(t),我们就可以来看输出门了,子结构如下:

717c681d73e0671befdc1b4d482ad313.png

从图中可以看出,隐藏状态h(t)的更新由两部分组成,第一部分是o(t), 它由上一序列的隐藏状态h(t−1)和本序列数据x(t),以及激活函数sigmoid得到,第二部分由隐藏状态C(t)和tanh激活函数组成, 即:

b170631e6deb5b56c55333091a6c3ac4.png

通过本节的剖析,相信大家对于LSTM的模型结构已经有了解了。当然,有些LSTM的结构和上面的LSTM图稍有不同,但是原理是完全一样的。


03.LSTM前向传播算法

现在我们来总结下LSTM前向传播算法。LSTM模型有两个隐藏态h(t),C(t),模型参数几乎是RNN的4倍,因为现在多了Wf,Uf,bf,Wa,Ua,ba,Wi,Ui,bi,Wo,Uo,bo这些参数。前向传播过程在每个序列索引位置的过程为:

1)更新遗忘门输出:

38c814527e7eb37554a72e814439b025.png

2)更新输入门两部分输出:

e03403442e728027b3400ff58244ac47.png

3)更新细胞状态:

b28383945865ded8ad872c3ef27d4611.png

4)更新输出门输出:

301f10e20af81947cc02cb59ee085e87.png

5)更新当前序列索引预测输出:

9cccc8e655cc3cf3f4e067ab7b210913.png


04.LSTM反向传播算法推导关键点

有了LSTM前向传播算法,推导反向传播算法就很容易了, 思路和RNN的反向传播算法思路一致,也是通过梯度下降法迭代更新我们所有的参数,关键点在于计算所有参数基于损失函数的偏导数。

在RNN中,为了反向传播误差,我们通过隐藏状态h(t)的梯度δ(t)一步步向前传播。在LSTM这里也类似。只不过我们这里有两个隐藏状态1d990763363ee45832e6a5ed1dc01f47.png00acac36feb5562f95414fe76d7430ea.png。这里我们定义两个δ,即:

ad876567b213926d4849b79f717783ea.png

反向传播时只使用了0733bdda2d54b5d283e5e416b6e37e95.png,变量d9f41134dd424e75ff183373dde87e17.png仅为帮助我们在某一层计算用,并没有参与反向传播,这里要注意。如下图所示:

3c99687bc8169c75665be93f5e9854e9.png

而在最后的序列索引位置τ的3a686c2183b49fdf8f2da120f967c96b.png40a5d4c05ee78c43fb6e552ae4c4f57d.png为:

7fca98b7735a75f2a93a119c68322802.png

接着我们由671e6476fd5bfc9512729fb13db6a6f6.png214e1a1eb74542a3766260daf140370e.png的梯度由本层的输出梯度误差决定,即:

aa2b71509f54798fd59ddef49e44b6d0.png

16acec360fd138bbb5a3426441d4b567.png的反向梯度误差由前一层e3afc8c059df0f30923a236a25ac1731.png的梯度误差和本层的从017ab1e5b582afc2e854eb7a54f8fcee.png传回来的梯度误差两部分组成,即:

d2c08c465fe7214f2bb66d820bfbe115.png

有了e418a10814204eec27c7e7d6fdc2e786.png1e2e1bb78a1949744b8cff4533e1627b.png, 计算这一大堆参数的梯度就很容易了,这里只给出Wf的梯度计算过程,其他的Uf,bf,Wa,Ua,ba,Wi,Ui,bi,Wo,Uo,bo,V,‍c的梯度大家只要照搬就可以了。

5f63bb03981bec44b4e53597149d6e58.png


05.LSTM小结

LSTM虽然结构复杂,但是只要理顺了里面的各个部分和之间的关系,进而理解前向反向传播算法是不难的。当然实际应用中LSTM的难点不在前向反向传播算法,这些有算法库帮你搞定,模型结构和一大堆参数的调参才是让人头痛的问题。不过,理解LSTM模型结构仍然是高效使用的前提。

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

e5e136aa8acb8d8517a3760c5dda0806.png

af4d939952976093139bda9821d70225.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/587477
推荐阅读
相关标签
  

闽ICP备14008679号