赞
踩
前一章中我们介绍了循环神经网络的基础知识,这种网络 可以更好地处理序列数据。我们在文本数据上实现 了基于循环神经网络的语言模型,但是对于当今各种各样的序列学习问题,这些技术可能并不够用。
例如,循环神经网络在实践中一个常见问题是 数值不稳定性。尽管我们已经应用了梯度裁剪等技巧来缓解这 个问题,但是仍需要通过设计更复杂的序列模型来进一步处理它。具体来说,我们将引入两个广泛使用的网络,即 门控循环单元(gated recurrent units,GRU)和 长短期记忆网络(long short‐term memory,LSTM)。 然后,我们将基于一个单向隐藏层来扩展循环神经网络架构。我们将描述具有多个隐藏层的深层架构,并讨论基于前向和后向循环计算的双向设计。现代循环网络经常采用这种扩展。
事实上,语言建模只揭示了序列学习能力的冰山一角。在各种序列学习问题中,如自动语音识别、文本到语音转换和机器翻译,输入和输出都是任意长度的序列。为了阐述如何拟合这种类型的数据,我们将以机器翻译为例介绍基于循环神经网络的“编码器-解码器”架构和束搜索,并用它们来生成序列。
我们讨论了如何在循环神经网络中计算梯度,以及矩阵连续乘积可以导致梯度消失或梯度爆炸 的问题。下面我们简单思考一下这种梯度异常在实践中的意义:
在学术界已经提出了许多方法来解决这类问题。其中最早的方法是“长短期记忆”(long‐short‐term memory, LSTM)(Hochreiter and Schmidhuber, 1997)。门控循环单元(gated recurrent unit, GRU)(Cho et al., 2014) 是一个稍微简化的变体,通常能够提供同等的效果,并且计算的速度明显更快。由于门控循环单元更简单,我们从它开始解读。
门控循环单元与普通的循环神经网络之间的关键区别在于:前者支持隐状态的门控。这意味着模型有专门的机制来确定应该何时更新隐状态,以及应该何时重置隐状态。这些机制是可学习的,并且能够解决了上面列出的问题。例如,如果第一个词元非常重要,模型将学会在第一次观测之后不更新隐状态。同样,模型也可以学会跳过不相关的临时观测。最后,模型还将学会在需要的时候重置隐状态。下面我们将详细讨论各类门控。
我们首先介绍 重置门(reset gate)和 更新门(update gate)。我们把它们设计成(0, 1)区间中的向量,这样我 们就可以进行凸组合。重置门允许我们控制“可能还想记住”的过去状态的数量;更新门将允许我们控制新状态中有多少个是旧状态的副本。 我们从构造这些门控开始。下图描述了门控循环单元中的重置门和更新门的输入,输入是由当前时间步的输入和前一时间步的隐状态给出。两个门的输出是由使用sigmoid激活函数的两个全连接层给出。
总之,门控循环单元 具有以下两个显著特征:
为了更好地理解门控循环单元模型,我们从零开始实现它。使用的时间机器数据集:
- import torch
- from torch import nn
- from d2l import torch as d2l
-
- batch_size, num_steps = 32, 35
- train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
下一步是 初始化模型参数。我们从标准差为0.01的高斯分布中提取权重,并将偏置项设为0,超参 数num_hiddens定义 隐藏单元的数量,实例化与更新门、重置门、候选隐状态 和 输出层相关的所有权重和偏置。
- def get_params(vocab_size, num_hiddens, device):
- num_inputs = num_outputs = vocab_size
-
- def normal(shape):
- return torch.randn(size=shape, device=device) * 0.01
-
- def three():
- return (normal((num_inputs, num_hiddens)),
- normal((num_hiddens, num_hiddens)),
- torch.zeros(num_hiddens, device=device))
-
- W_xz, W_hz, b_z = three()
- W_xr, W_hr, b_r = three()
- W_xh, W_hh, b_h = three()
-
- W_hq = normal((num_hiddens, num_outputs))
- b_q = torch.zeros(num_outputs, device=device)
-
- params = [W_xz, W_hz, b_z, W_xr, W_hr, b_r, W_xh, W_hh, b_h, W_hq, b_q]
- for param in params:
- param.requires_grad_(True)
- return params
定义模型,现在我们将定义隐状态的初始化函数init_gru_state。定义的nit_rnn_state函数,此函数 返回一个形状为(批量大小,隐藏单元个数)的张量,张量的值全部为零。现在我们准备定义门控循环单元模型,模型的架构与基本的循环神经网络单元是相同的,只是权重更新公式 更为复杂。
- def init_gru_state(batch_size, num_hiddens, device):
- return (torch.zeros((batch_size, num_hiddens), device=device),)
-
- def gru(inputs, state, params):
- W_xz, W_hz, b_z, W_xr, W_hr, b_r, W_xh, W_hh, b_h, W_hq, b_q = params
- H, = state
- outputs = []
- for X in inputs:
- Z = torch.sigmoid((X @ W_xz) + (H @ W_hz) + b_z)
- R = torch.sigmoid((X @ W_xr) + (H @ W_hr) + b_r)
- H_tilda = torch.tanh((X @ W_xh) + ((R * H) @ W_hh) + b_h)
- H = Z * H + (1 - Z) * H_tilda
- Y = H @ W_hq + b_q
- outputs.append(Y)
- return torch.cat(outputs, dim=0), (H,)
训练与预测,训练结束后,我们分别打印输出训练集的困惑度,以及前缀“time traveler”和“traveler”的预测序列上的困惑度。
- vocab_size, num_hiddens, device = len(vocab), 256, d2l.try_gpu()
- num_epochs, lr = 500, 1
- model = d2l.RNNModelScratch(len(vocab), num_hiddens, device, get_params,
- init_gru_state, gru)
- d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
高级API包含了前文介绍的所有配置细节,所以我们 可以直接实例化门控循环单元模型。这段代码的运行速度要快得多,因为它使用的是编译好的运算符而不是Python来处理之前阐述的许多细节。
- num_inputs = vocab_size
- gru_layer = nn.GRU(num_inputs, num_hiddens)
- model = d2l.RNNModel(gru_layer, len(vocab))
- model = model.to(device)
- d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
小结:
长期以来,隐变量模型存在着长期信息保存和短期输入缺失的问题。解决这一问题的最早方法之一是长短期 存储器(long short‐term memory,LSTM)(Hochreiter and Schmidhuber, 1997)。它有许多与门控循环单元一样的属性。有趣的是,长短期记忆网络的设计比门控循环单元稍微复杂一些,却比门控循环单 元早诞生了近20年。
可以说,长短期记忆网络的设计灵感 来自于计算机的逻辑门。长短期记忆网络引入了记忆元(memory cell), 或简称为单元(cell)。有些文献认为记忆元是隐状态的一种特殊类型,它们与隐状态具有相同的形状,其设计目的是用于记录附加的信息。为了控制记忆元,我们需要许多门。其中一个门用来从单元中输出条目,我 们将其称为 输出门(output gate)。另外一个门用来决定何时将数据读入单元,我们将其称为 输入门(input gate)。我们还需要一种机制来重置单元的内容,由遗忘门(forget gate)来管理,这种设计的动机与门控循 环单元相同,能够通过专用机制决定什么时候记忆或忽略隐状态中的输入。让我们看看这在实践中是如何运 作的。
现在,我们从零开始实现长短期记忆网络。我们首先 加载时光机器数据集。
- import torch
- from torch import nn
- from d2l import torch as d2l
-
- batch_size, num_steps = 32, 35
- train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
初始化模型参数,我们需要 定义和初始化模型参数。如前所述,超参数num_hiddens定义隐藏单元的数量。我们按照标准差0.01的高斯分布初始化权重,并将偏置项设为0。
- def get_lstm_params(vocab_size, num_hiddens, device):
- num_inputs = num_outputs = vocab_size
-
- def normal(shape):
- return torch.randn(size=shape, device=device) * 0.01
-
- def three():
- return (normal((num_inputs, num_hiddens)),
- normal((num_hiddens, num_hiddens)),
- torch.zeros(num_hiddens, device=device))
-
- W_xi, W_hi, b_i = three()
- W_xf, W_hf, b_f = three()
- W_xo, W_ho, b_o = three()
- W_xc, W_hc, b_c = three()
-
- W_hq = normal((num_hiddens, num_outputs))
- b_q = torch.zeros(num_outputs, device=device)
-
- params = [W_xi, W_hi, b_i, W_xf, W_hf, b_f, W_xo, W_ho, b_o, W_xc, W_hc,
- b_c, W_hq, b_q]
- for param in params:
- param.requires_grad_(True)
- return params
定义模型,在初始化函数中,长短期记忆网络的 隐状态需要返回一个额外的记忆元,单元的值为0,形状为(批量大小, 隐藏单元数)。因此,我们得到以下的状态初始化。实际模型的定义与我们前面讨论的一样:提供三个门和一个额外的记忆元。请注意,只有隐状态才会传递到输出层,而记忆元Ct不直接参与输出计算。
- def init_lstm_state(batch_size, num_hiddens, device):
- return (torch.zeros((batch_size, num_hiddens), device=device),
- torch.zeros((batch_size, num_hiddens), device=device))
-
- def lstm(inputs, state, params):
- [W_xi, W_hi, b_i, W_xf, W_hf, b_f, W_xo, W_ho, b_o, W_xc, W_hc,
- b_c, W_hq, b_q] = params
- (H, C) = state
- outputs = []
- for X in inputs:
- I = torch.sigmoid((X @ W_xi) + (H @ W_hi) + b_i)
- F = torch.sigmoid((X @ W_xf) + (H @ W_hf) + b_f)
- O = torch.sigmoid((X @ W_xo) + (H @ W_ho) + b_o)
- C_tilda = torch.tanh((X @ W_xc) + (H @ W_hc) + b_c)
- C = F * C + I * C_tilda
- H = O * torch.tanh(C)
- Y = (H @ W_hq) + b_q
- outputs.append(Y)
- return torch.cat(outputs, dim=0), (H, C)
训练和预测,让我们通过实例化 引入的RNNModelScratch类来训练一个长短期记忆网络。
- vocab_size, num_hiddens, device = len(vocab), 256, d2l.try_gpu()
- num_epochs, lr = 500, 1
- model = d2l.RNNModelScratch(len(vocab), num_hiddens, device, get_lstm_params,
- init_lstm_state, lstm)
- d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
使用高级API,我们可以 直接实例化LSTM模型。高级API封装了前文介绍的所有配置细节。这段代码的运行速度要快得多,因为它使用的是编译好的运算符。
- num_inputs = vocab_size
- lstm_layer = nn.LSTM(num_inputs, num_hiddens)
- model = d2l.RNNModel(lstm_layer, len(vocab))
- model = model.to(device)
- d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
长短期记忆网络是典型的具有重要状态控制的隐变量自回归模型。多年来已经提出了其许多变体,例如,多层、残差连接、不同类型的正则化。然而,由于序列的长距离依赖性,训练长短期记忆网络和其他序列模型 (例如门控循环单元)的 成本是相当高 的。在后面的内容中,我们将讲述更高级的替代模型,如Transformer。
小结:
到目前为止,我们 只讨论了具有一个单向隐藏层的循环神经网络。其中,隐变量和观测值与具体的函数形式的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,这就不是一个大问题。然而,对一个单层来说,这可能具有相当的挑战性。之前在线性模型中,我们通过添加更多的层来解决这个问题。而 在循环神经网络中,我们首先需要确定如何添加更多的层,以及在哪里添加额外的非线性,因此这个问题有点棘手。
事实上,我们可以 将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生了一个灵活的机制。特别是,数据可能与不同层的堆叠有关。例如,我们可能希望保持有关金融市场状况(熊市或牛市)的宏观数 据可用,而微观数据只记录较短期的时间动态。
下图描述了一个具有 L个隐藏层的深度循环神经网络,每个隐状态都连续地传递到当前层的下一个时间步 和下一层的当前时间步。
实现多层循环神经网络所需的许多逻辑细节在高级API中都是现成的。简单起见,我们仅示范使用此类内置 函数的实现方式。以长短期记忆网络模型为例,实际上唯一 的区别是我们 指定了层的数量,而不是使用单一层这个默认值。像往常一样,我们从 加载数据集 开始。
- import torch
- from torch import nn
- from d2l import torch as d2l
-
- batch_size, num_steps = 32, 35
- train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
像选择超参数这类架构决策和基础模块的决策非常相似。因为我们有不同的词元,所以输入和输出都选择 相同数量,即vocab_size。隐藏单元的数量仍然是256。唯一的区别是,我们现在 通过num_layers的值来设定 隐藏层数。
- vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
- num_inputs = vocab_size
- device = d2l.try_gpu()
- lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers)
- model = d2l.RNNModel(lstm_layer, len(vocab))
- model = model.to(device)
训练与预测,由于使用了长短期记忆网络模型来实例化两个层,因此训练速度被大大降低了。
- num_epochs, lr = 500, 2
- d2l.train_ch8(model, train_iter, vocab, lr * 1.0, num_epochs, device)
小结:
在序列学习中,我们以往假设的目标是:在给定观测的情况下(例如,在时间序列的上下文中或在语言模型 的上下文中),对下一个输出进行建模。
由于 双向循环神经网络使用了过去的和未来的数据,所以我们不能盲目地将这一语言模型应用于任何预测任务。尽管模型产出的困惑度是合理的,该模型预测未来词元的能力却可能存在严重缺陷。我们用下面的示例 代码引以为戒,以防在 错误的环境 中使用它们。
- import torch
- from torch import nn
- from d2l import torch as d2l
- # 加载数据
- batch_size, num_steps, device = 32, 35, d2l.try_gpu()
- train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
- # 通过设置“bidirective=True”来定义双向LSTM模型
- vocab_size, num_hiddens, num_layers = len(vocab), 256, 2
- num_inputs = vocab_size
- lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers, bidirectional=True)
- model = d2l.RNNModel(lstm_layer, len(vocab))
- model = model.to(device)
- # 训练模型
- num_epochs, lr = 500, 1
- d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
小结:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。