当前位置:   article > 正文

神经网络学习小记录36——Keras实现LSTM与LSTM参数量详解_keras lstm

keras lstm

学习前言

我死了我死了我死了!
在这里插入图片描述

什么是LSTM

1、LSTM的结构

在这里插入图片描述
我们可以看出,在n时刻,LSTM的输入有三个:

  • 当前时刻网络的输入值Xt
  • 上一时刻LSTM的输出值ht-1
  • 上一时刻的单元状态Ct-1

LSTM的输出有两个:

  • 当前时刻LSTM输出值ht
  • 当前时刻的单元状态Ct

2、LSTM独特的门结构

LSTM用两个门来控制单元状态cn的内容:

  • 遗忘门(forget gate),它决定了上一时刻的单元状态cn-1有多少保留到当前时刻;
  • 输入门(input gate),它决定了当前时刻网络的输入c’n有多少保存到新的单元状态cn中。

LSTM用一个门来控制当前输出值hn的内容:

  • 输出门(output gate),它利用当前时刻单元状态cn对hn的输出进行控制。
    在这里插入图片描述

3、LSTM参数量计算

a、遗忘门

在这里插入图片描述
遗忘门这里需要结合ht-1和Xt来决定上一时刻的单元状态cn-1有多少保留到当前时刻;

由图我们可以得到,我们在这一环节需要计一个参数ft

在这里插入图片描述
里面需要训练的参数分别是Wf和bf
在定义LSTM的时候我们会使用到一个参数叫做units,其实就是神经元的个数,也就是LSTM的输出——ht的维度。
所以:
W f 的 参 数 量 = ( x d i m + h d i m ) ∗ h d i m W_f的参数量 = (x_{dim} + h_{dim}) * h_{dim} Wf=(xdim+hdim)hdim
b f 的 参 数 量 = h d i m b_f的参数量 = h_{dim} bf=hdim
遗忘门的总参数量为:
总 参 数 量 = ( ( x d i m + h d i m ) ∗ h d i m + h d i m ) 总参数量 = ((x_{dim} + h_{dim}) * h_{dim} + h_{dim}) =((xdim+hdim)hdim+hdim)

b、输入门

在这里插入图片描述
输入门这里需要结合ht-1和Xt来决定当前时刻网络的输入c’n有多少保存到单元状态cn中。

由图我们可以得到,我们在这一环节需要计算两个参数,分别是it

在这里插入图片描述
和C’t
在这里插入图片描述
里面需要训练的参数分别是Wi、bi、WC和bC
在定义LSTM的时候我们会使用到一个参数叫做units,其实就是神经元的个数,也就是LSTM的输出——ht的维度。
所以:
W i 的 参 数 量 = ( x d i m + h d i m ) ∗ h d i m W_i的参数量 = (x_{dim} + h_{dim}) * h_{dim} Wi=(xdim+hdim)hdim
b i 的 参 数 量 = h d i m b_i的参数量 = h_{dim} bi=hdim
W c 的 参 数 量 = ( x d i m + h d i m ) ∗ h d i m W_c的参数量 = (x_{dim} + h_{dim}) * h_{dim} Wc=(xdim+hdim)hdim
b c 的 参 数 量 = h d i m b_c的参数量 = h_{dim} bc=hdim
输入门的总参数量为:
总 参 数 量 = 2 ∗ ( ( x d i m + h d i m ) ∗ h d i m + h d i m ) 总参数量 = 2*((x_{dim} + h_{dim}) * h_{dim} + h_{dim}) =2((xdim+hdim)hdim+hdim)

c、输出门

在这里插入图片描述
输出门利用当前时刻单元状态cn对hn的输出进行控制;

由图我们可以得到,我们在这一环节需要计一个参数ot

在这里插入图片描述
里面需要训练的参数分别是Wo和bo
在定义LSTM的时候我们会使用到一个参数叫做units,其实就是神经元的个数,也就是LSTM的输出——ht的维度。
所以:
W o 的 参 数 量 = ( x d i m + h d i m ) ∗ h d i m W_o的参数量 = (x_{dim} + h_{dim}) * h_{dim} Wo=(xdim+hdim)hdim
b o 的 参 数 量 = h d i m b_o的参数量 = h_{dim} bo=hdim
输出门的总参数量为:
总 参 数 量 = ( ( x d i m + h d i m ) ∗ h d i m + h d i m ) 总参数量 = ((x_{dim} + h_{dim}) * h_{dim} + h_{dim}) =((xdim+hdim)hdim+hdim)

d、全部参数量

所以所有的门总参数量为:
总 参 数 量 = 4 ∗ ( ( x d i m + h d i m ) ∗ h d i m + h d i m ) 总参数量 = 4*((x_{dim} + h_{dim}) * h_{dim} + h_{dim}) =4((xdim+hdim)hdim+hdim)

Keras中实现LSTM

LSTM一般需要输入两个参数。
一个是unit、一个是input_shape。

LSTM(CELL_SIZE, input_shape = (TIME_STEPS,INPUT_SIZE))
  • 1

unit用于指定神经元的数量。
input_shape用于指定输入的shape,分别指定TIME_STEPS和INPUT_SIZE。

实现代码

import numpy as np
from keras.models import Sequential
from keras.layers import Input,Activation,Dense
from keras.models import Model
from keras.datasets import mnist
from keras.layers.recurrent import LSTM
from keras.utils import np_utils
from keras.optimizers import Adam

TIME_STEPS = 28
INPUT_SIZE = 28
BATCH_SIZE = 50
index_start = 0
OUTPUT_SIZE = 10
CELL_SIZE = 75
LR = 1e-3

(X_train,Y_train),(X_test,Y_test) = mnist.load_data()
 
X_train = X_train.reshape(-1,28,28)/255
X_test = X_test.reshape(-1,28,28)/255

Y_train = np_utils.to_categorical(Y_train,num_classes= 10)
Y_test = np_utils.to_categorical(Y_test,num_classes= 10)

inputs = Input(shape=[TIME_STEPS,INPUT_SIZE])

x = LSTM(CELL_SIZE, input_shape = (TIME_STEPS,INPUT_SIZE))(inputs)
x = Dense(OUTPUT_SIZE)(x)
x = Activation("softmax")(x)

model = Model(inputs,x)
adam = Adam(LR)
model.summary()
model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy'])

for i in range(50000):
    X_batch = X_train[index_start:index_start + BATCH_SIZE,:,:]
    Y_batch = Y_train[index_start:index_start + BATCH_SIZE,:]
    index_start += BATCH_SIZE
    cost = model.train_on_batch(X_batch,Y_batch)
    if index_start >= X_train.shape[0]:
        index_start = 0
    if i%100 == 0:
        cost,accuracy = model.evaluate(X_test,Y_test,batch_size=50)
        print("accuracy:",accuracy)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46

实现效果:

10000/10000 [==============================] - 3s 340us/step
accuracy: 0.14040000014007092
10000/10000 [==============================] - 3s 310us/step
accuracy: 0.6507000041007995
10000/10000 [==============================] - 3s 320us/step
accuracy: 0.7740999992191792
10000/10000 [==============================] - 3s 305us/step
accuracy: 0.8516999959945679
10000/10000 [==============================] - 3s 322us/step
accuracy: 0.8669999945163727
10000/10000 [==============================] - 3s 324us/step
accuracy: 0.889699995815754
10000/10000 [==============================] - 3s 307us/step
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/569214
推荐阅读
相关标签
  

闽ICP备14008679号