赞
踩
循环层 Recurrent - Keras 中文文档 https://keras.io/zh/layers/recurrent/#gru
GRU
keras.layers.GRU(units, activation='tanh', recurrent_activation='hard_sigmoid',
use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal',
bias_initializer='zeros', kernel_regularizer=None, recurrent_regularizer=None,
bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0,
implementation=1, return_sequences=False, return_state=False, go_backwards=False,
stateful=False, unroll=False, reset_after=False)
门限循环单元网络(Gated Recurrent Unit) - Cho et al. 2014.
有两种变体。默认的是基于 1406.1078v3 的实现,同时在矩阵乘法之前将复位门应用于隐藏状态。 另一种则是基于 1406.1078v1 的实现,它包括顺序倒置的操作。
第二种变体与 CuDNNGRU(GPU-only) 兼容并且允许在 CPU 上进行推理。 因此它对于 kernel 和 recurrent_kernel
有可分离偏置。 使用 'reset_after'=True
和 recurrent_activation='sigmoid'
。
参数
units
: 正整数,输出空间的维度。Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。