当前位置:   article > 正文

深度学习从入门到精通——循环神经网络及其实战_循环神经网络实战

循环神经网络实战

循环神经网络

  • 时序数据、文本数据
    文本:字母和词汇的序列
    语音:音节的序列
    视频:图像帧的序列
    时态数据:气象观测数据,股票交易数据、房价数据等

RNN

  • 循环神经网络是一种人工神经网络,它的节点间的连接形成一个遵循时间序列的有向图,它的核心思想是,样本间存在顺序关系,每个样本和它之前的样本存在关联。通过神经网络在时序上的展开,我们能够找到样本之间的序列相关性。
  • 在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    Word Embedding:自然语言处理(NLP)中的 一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。比如这里映射到三个向量然后输入:在这里插入图片描述
    在这里插入图片描述
    将神经元的输出存到memory中,memory中值会作为下一时刻的输入。在最开始时刻,给定 memory初始值,然后逐次更新memory中的值
    在这里插入图片描述
    RNN的一般结构Elman Network
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在RNN中,存在一个很重要的问题,就是梯度消失问题,一开始我们不能有效的解决长时依赖问题,其中梯度消失的原因有两个:BPTT算法和激活函数Tanh

LSTM

LSTM,即长短时记忆网络,于1997年被Sepp Hochreiter 和Jürgen Schmidhuber提出来,LSTM是一种用于深度学习领域的人工循环神经网络(RNN)结构。一个LSTM单元由输入门、输出门和遗忘门组成,三个门控制信息进出单元。
在这里插入图片描述

  • LSTM依靠贯穿隐藏层的细胞状态实现隐藏单元之间的信息传递,其中只有少量的线性操作
  • LSTM引入了“门”机制对细胞状态信息进行添加或删除,由此实现长程记忆
  • “门”机制由一个Sigmoid激活函数层和一个向量点乘操作组成,Sigmoid层的输出控制了信息传递的比例

Peephole LSTM.

让门层也接受细胞状态的输入,同时考虑隐层信息的输入。
在这里插入图片描述

Bi-directional RNN(双向RNN)

Bi-directional RNN(双向RNN)假设当前t的输出不仅仅和之前的序列有关,并且还与之后的序列有关,例如:完形填空,它由两个RNNs上下叠加在一起组成,输出由这两个RNNs的隐藏层的状态决定。
在这里插入图片描述

  • 主要应用在机器翻译、时序建模

链接: DataWhale.

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/550677
推荐阅读
相关标签
  

闽ICP备14008679号