赞
踩
程序代码:
https://download.csdn.net/download/do_it_123/88930068
在 LSTM 中,有两个状态向量和 , 其中作为 LSTM 的内部状态向量,可以理解为LSTM 的内存状态向量 Memory,而 表示 LSTM 的输出向量。 相对于基础的 RNN 来说, LSTM 把内部 Memory 和输出分开为两个变量,同时利用三个门控:输入门(Input Gate)、遗忘门(Forget Gate)和输出门(Output Gate)来控制内部信息的流动。
LSTMCell
LSTMCell 的用法和 SimpleRNNCell 基本一致, 区别在于 LSTM 的状态变量 List 有两个, 即[ht , ct], 需要分别初始化。调用 cell完成前向运算时,返回两个元素,第一个元素为 cell 的输出,也就是ht,第二个元素为cell 的更新后的状态 List: [ ht,ct ]。
Layers. LSTM
通过 layers.LSTM 层可以方便的一次完成整个序列的运算。首先新建 LSTM 网络层,经过 LSTM 层前向传播后,默认只会返回最后一个时间戳的输出, 如果需要返回每个时间戳上面的输出, 需要设置 return_sequences=True 标志。
对于多层神经网络, 可以通过 Sequential 容器包裹多层 LSTM 层,并设置所有非末层网络 return_sequences=True,这是因为非末层的 LSTM 层需要上一层在所有时间戳的输出作为输入。
备注
简介此部分摘自互联网,仅供参考,若侵权,联系删除。
创作不易,相关程序,说明文档需求,如需要,可加作者新联系方式,WX:Q3101759565,QQ:3101759565[多加几次!!!]
祝您学业有成!工作顺利! 年薪百万!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。