赞
踩
小白循环神经网络RNN LSTM 参数数量 门单元 cell units timestep batch_size
先来解释一下 batch_size timestep
样本数据:
小明爱学习
小王爱学习
小李爱学习
小花爱学习
通常样本数据会以(batch_size, time_step, embedding_size)送入模型,对应的可以是(4,5,100)
4表示批量送入也就是(小,小,小,小)第二批是(明,王,李,花)…
5表示时间步长,一句话共5个字
100表示词嵌入的维度
H t = ϕ ( X t W x h + H ( t − 1 ) W h h + b h ) H_t = \phi(X_tW_{xh}+H_(t-1)W_{hh}+b_h) Ht=ϕ(XtWxh+H(t−1)Whh+bh)
X t X_t Xt输入 假设一次输入4个字符,那么Xt的维度是4*100
W x h W_{xh} Wxh 对应的矩阵大小是 100*hidden_size
X t W x h X_tW_{xh} XtWxh输出大小即为4*hidden_size 也就是说W将词嵌入转换成隐藏层大小
$H_{t-1} $ 也就是 4*hidden_size
W h h W_{hh} W
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。