当前位置:   article > 正文

回归、自回归、循环神经网络(RNN)、LSTM_自回归神经网络

自回归神经网络

1 RNN的统计学基础

1.1 回归:

Investpedia:
Regression refers to the relation between selected values of x and observed values of y (from which the most probable value of y can be predicted for any value of x). The general form of each type of regression is:

  • Simple linear regression: Y = a + b X + u Y = a + bX + u Y=a+bX+u
  • Multiple linear regression: Y = a + b 1 X 1 + b 2 X 2 + b 3 X 3 + . . . + b t X t + u Y = a + b_1X_1 + b_2X_2 + b_3X_3 + ... + b_tX_t + u Y=a+b1X1+b2X2+b3X3+...+btXt+u
    Where:
    Y Y Y = the variable that you are trying to predict (dependent variable,因变量).
    X X X = the variable that you are using to predict Y (independent variable,自变量).
    a a a = the intercept(截距).
    b b b = the slope(斜率).
    u u u = the regression residual(回归残差).

1.2 自回归(Auto-Regression, AR模型)

自回归,即AR模型,属于时间序列分析的范畴,即用一个变量 y t y_t yt的历史信息来预测自己,tutorialspoint给出的定义:

  • For a stationary time series, an auto regression models sees the value of a variable at time ‘t’ as a linear function of values ‘p’ time steps preceding it. Mathematically it can be written as:
    y t = C + ϕ 1 y t − 1 + ϕ 2 y t − 2 + . . . + ϕ p y t − p + ϵ t y_t=C+ϕ_1y_{t−1}+ϕ_2y_{t−2}+...+ϕ_py_{t−p}+ϵ_t yt=C+ϕ1yt1+ϕ2yt2+...+ϕpytp+ϵt
    Where,‘p’ is the auto-regressive trend parameter
    ϵ t ϵ_t ϵt is white noise, and y t − 1 , y t − 2 . . . y t − p y_{t−1},y_{t−2}...y_{t−p} yt1,yt2...ytp denote the value of variable at previous time periods.

1.3 有外部输入的非线性自回归模型(Nonlinear AutoRegressive with Exogenous Inputs Model,NARX)

NARX是自回归模型的扩展,在每个时刻 t t t都有一个外部输入 x t x_t xt,产生一个输出 y t y_t yt,NARX通过一个延时器记录最近 K x K_x Kx次的外部输入和最近 K y K_y Ky次的输出,第 t t t个时刻的输出 y t y_t yt为:
y t = f ( x t , x t − 1 , . . . , x t − K x , y t − 1 , y t − 2 , . . . , y t − K y ) y_t=f(x_t,x_{t-1},...,x_{t-K_x},y_{t-1},y_{t-2},...,y_{t-K_y}) yt=f(xt,xt1,...,xtKx,yt1,yt2,...,ytKy)
其中 f ( ) f() f()表示非线性函数,可以是一个前馈网络, K x K_x Kx K y K_y Ky为超参数。

2 简单循环神经网络

2.1 循环神经网络的通用近似定理

如果一个完全连接的循环神经网络有足够数量的 sigmoid 型隐藏神经元,它可以以任意的准确率去近似任何一个非线性动力系统:


s t = g ( s t − 1 , x t ) s_t = g(s_{t-1}, x_{t}) st=g(st1,xt)
y t = o ( s t ) y_t = o(s_t) yt=o(st)

2.2 学习模式

2.3 参数学习

2.4 梯度爆炸、梯度消失与长程依赖问题

2.5 门控机制、LSTM及其变体

2.6 深层循环神经网络

2.6.1 堆叠循环神经网络

在这里插入图片描述
图 按时间展开的堆叠循环神经网络

2.6.2 双向循环神经网络

在有些任务中,一个时刻的输出不但和过去时刻的信息有关,也和后续时刻
的信息有关.比如给定一个句子,其中一个词的词性由它的上下文决定,即包含左右两边的信息.因此,在这些任务中,我们可以增加一个按照时间的逆序来传递信息的网络层,来增强网络的能力.
双向循环神经网络(Bidirectional Recurrent Neural Network,Bi-RNN)由
两层循环神经网络组成,它们的输入相同,只是信息传递的方向不同.按时间展开的双向循环神经网络
图 按时间展开的双向循环神经网络

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/488576
推荐阅读
相关标签
  

闽ICP备14008679号