当前位置:   article > 正文

学习笔记--神经网络与深度学习之循环神经网络_循环图神经网络recurrent graph neural networks

循环图神经网络recurrent graph neural networks

目录

1. 给网络增加记忆能力

1.1 延时神经网络

 1.2 有外部输入的非线性自回归模型

1.3 循环神经网络

2. 简单循环网络

 2.1 循环神经网络的计算能力

2.1.1 循环神经网络的通用近似定理

2.1.2 图灵完备

3. 应用到机器学习

3.1 序列到类别模式

3.2 同步的序列到序列模式

3.3 异步的序列到序列模式

4. 参数学习

4.1 随时间反向传播算法

5. 长程依赖问题

 5.1 改进方案

6. 基于门控的循环神经网络

6.1 门控循环单元网络

6.2 长短期记忆网络(LSTM)

6.3 LSTM网络的各种变体

 7. 深层循环神经网络

7.1 堆叠循环神经网络

 7.2 双向循环神经网络

 8. 拓展到图结构

8.1 递归神经网络

8.2 图神经网络

        全前馈神经网络,信息单向传递,网络易学习,但能力被减弱。网络输出只依赖于当前的输入。输入输出维数固定。
  循环神经网络,具有短期记忆能力。其中的神经元可接收 其他神经元的信息和 本身的信息。输入输出可不固定。参数学习可通过随时间反向传播算法学习。输入序列较长时,错误信息向前传递过长,存在梯度爆炸和梯度消失问题,即长程依赖问题,一种有效的改进方式:门控机制。
  循环神经网络易拓展到更广义的记忆网络模型: 递归神经网络、 图网络。

1. 给网络增加记忆能力

        时序数据处理需要历史信息。前馈网络无记忆能力。

        介绍三种方法给网络增加记忆能力:        

1.1 延时神经网络

        延时神经网络通过在前馈网络的非输出层中都添加一个延时器,记录神经元的最近几次活性值,增加前馈网络的短期记忆能力。在 t时刻,第 l 层神经元的活性值依赖于第 l − 1 层神经元的最近 K 个时刻的活性值:

 1.2 有外部输入的非线性自回归模型

1.3 循环神经网络

循环神经网络 (Recurrent Neural Network,RNN)通过使用带自反馈的神经元处理任意长度的时序数据。

图 循环神经网络 

2. 简单循环网络

  简单循环网络(SRN)只有一个隐藏层。在一个两层的前馈神经网络中,连接存在相邻的层与层之间,隐藏层的节点之间无连接。简单循环网络增加了隐藏层到隐藏层的反馈连接。

        若把每个时刻的状态都看做前馈神经网络的一层,循环神经网络可看做在时间维度上权值共享的神经网络。按时间展开的循环神经网络:        

在这里插入图片描述

 2.1 循环神经网络的计算能力

2.1.1 循环神经网络的通用近似定理

  循环神经网络的拟合能力也十分强大。一个完全连接的循环网络是任何非线性动力系统的近似器。可用通用近似定理解释:

2.1.2 图灵完备

  图灵完备(Turing Completeness)是指一种数据操作规则,比如一种编程语言,可以实现图灵机(Turing Machine)的所有功能,解决所有的可计算问题。

 故一个完全连接的循环神经网络可以近似解决所有的可计算问题。

3. 应用到机器学习

        循环神经网络可以应用到三种模式的机器学习任务::序列到类别模式、同步的序列到序列模式、异步的序列到序列模式。

3.1 序列到类别模式

  序列到类别模式主要用于序列数据的分类问题。比如文本分类任务,输入为单词序列,输出为该文本类别。

两种图示:

运用场景:

3.2 同步的序列到序列模式

  同步的序列到序列模式主要用于序列标注(Sequence Labeling)任务,即每一时刻都有输入输出,输入输出序列长度相同。比如在词性标注(Part-of-Speech Tagging)中,每一个单词需要标注其词性标签。

图示:

 应用:

中文分词:(s-start、b-beginning、e-ending)

 信息抽取:

3.3 异步的序列到序列模式

  异步的序列到序列模式 又称编码器-解码器(Encoder-Decoder)模型,即输入序列和输出序列不需具有严格的对应关系,也不需相同长度。比如机器翻译任务中,输入为源语言单词序列,输出为目标语言单词序列。

  异步的序列到序列模式示例如下图,其中〈声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】

推荐阅读
相关标签