赞
踩
LSTM(长短期记忆网络)的设计灵感来源于传统的人工神经网络在处理序列数据时存在的问题,特别是梯度消失和梯度爆炸的问题。
在传统的RNN(循环神经网络)中,信息在网络中的传递是通过隐状态向量进行的。然而,在处理长序列数据时,由于反向传播过程中梯度的不断乘积,会导致梯度消失或梯度爆炸的问题,使得网络无法有效地学习到长期依赖关系。
为了解决这个问题,Hochreiter和Schmidhuber提出了LSTM网络。LSTM网络引入了“门”的概念,包括输入门、遗忘门和输出门,这些门可以控制信息在神经元之间的流动,并允许网络在需要的时候存储和更新长期记忆。
具体来说,LSTM网络中的每个单元包含一个细胞状态,该状态可以在时间步之间传递并被修改。输入门、遗忘门和输出门分别控制细胞状态的更新、清除和读取操作。通过这三个门的巧妙设计,LSTM网络能够在处理长序列数据时有效地避免梯度消失和梯度爆炸的问题,同时保留长期依赖关系的信息。
因此,LSTM的设计灵感主要来自于对传统RNN在处理序列数据时存在问题的深入理解和解决思路,以及对如何更好地模拟人类大脑处理序列信息机制的探索和创新。
下面我们来具体看看输入门、遗忘门和输出门以及记忆细胞元的数学表达式:
假设有个隐藏单元,批量大小为,输入数为。因此,输入为,前一个时间步的隐状态为。时间步的门被定义为:输入门,遗忘门,输出门。各种门的计算方法如下:
其中,和是权重参数,是偏置参数。
1)候选记忆细胞元:的计算表达式为:
其中,和是权重参数,是偏置参数。
2)记忆元细胞的计算表达式为:
。
在上述设计中,输入门控制采用多少来自的新数据,而遗忘门控制保留多少过去的记忆元的内容。
如果遗忘门始终为1且输入门始终为0, 则过去的记忆元将随时间被保存并传递到当前时间步。 引入这种设计是为了缓解梯度消失问题, 并更好地捕获序列中的长距离依赖关系。
3)隐状态的计算表达式为:
。
在上述设计中,只要输出门接近1,我们就能够有效地将所有记忆信息传递给预测部分, 而对于输出门接近0,我们只保留记忆元内的所有信息,而不需要更新隐状态。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。