赞
踩
这篇文章的大部分内容参考自我的新书《解构大语言模型:从线性回归到通用人工智能》,欢迎有兴趣的读者多多支持。
本文涉及到的代码链接如下:regression2chatgpt/ch10_rnn/char_rnn_batch.ipynb
《循环神经网络(RNN)》这篇文章讨论了RNN的模型结构,并展示了如何利用该模型来学习语言。然而,文中的代码实现只是示范性的,运行效率不高,限制了模型在实际应用中的效果。本文将重点讨论如何高效地实现循环神经网络,并在此基础上构建深度循环神经网络(Deep RNN)。
在理解本文的基础上,我们将能够更好地理解著名的长短期记忆网络(LSTM)模型,具体内容请参考:
利用神经网络学习语言(三)——循环神经网络(RNN)中实现了一个最简单的单层循环神经网络,本文将进一步讨论如何构建更复杂的循环神经网络,并将其应用于自然语言处理。搭建复杂模型的关键在于高效且优雅的代码实现,这也是接下来将要讨论的内容。
模型训练的基础是梯度下降法及其变种(如果不太了解请参考其他的文献[TODO])。在这类算法的每个迭代周期内,首先选择一批数据,然后计算模型在这批数据上的损失并进行反向传播。在这个过程中,不同数据的计算是相互独立的,可以并行执行,这一点同样适用于循环神经网络。同一序列的模型计算必须串行进行,不同序列的计算仍然可以并行处理。例如,同一文本的文字必须按顺序处理,但是不同的文本可以同时并行处理。因此,提高循环神经网络计算效率的关键在于并行处理批量数据的模型计算。具体的代码实现如程序清单1所示(完整代码),以下是实现的要点。
1 | class RNN(nn.Module):
2 |
3 | def __init__(self, input_size, hidden_size):
4 | super().__init__()
5 | self.hidden_size = hidden_size
6 | self.i2h = nn.Linear(input_size + hidden_size, hidden_size)
7 |
8 | def forward(self, x, hidden=None):
9 | re = []
10 | # B batch_size,
11 | # T sequence length,
12 | # C number of channels.
13 | B, T, C = x.shape
14 | x = x.transpose(0, 1) # (T, B, C)
15 | if hidden is None:
16 | hidden = self.init_hidden(B, x.device)
17 | for i in range(T):
18 | # x[i]: (B, C); hidden: (B, H)
19 | combined = torch.cat((x[i], hidden), dim=1)
20 | hidden = F.relu(self.i2h(combined)) # ( B, H)
21 | re.append(hidden)
22 | result_tensor = torch.stack(re, dim=0) # (T, B, H)
23 | return result_tensor.transpose(0, 1) # (B, T, H)
24 |
25 | def init_hidden(self, B, device):
26 | return torch.zeros((B, self.hidden_size), device=device)
上述模型实现对输入数据提出了一项相对严格的要求,即输入序列的长度必须相同。为了使这个模型更具通用性,能够适应长度不一的批量序列数据,通常有两种常见的处理方法。
一种是填充数据,即根据批量数据中最长的序列长度,使用特殊字符来填充其他序列的空白部分。这种处理方式存在一些问题。首先,由于需要使用特殊字符进行填充,会导致不必要的计算开销(填充字符并不需要进行模型计算)。其次,填充的特殊字符可能使模型产生误解,因为模型无法区分哪部分数据是不需要学习的。为了应对上述两个问题,PyTorch提供了一系列封装函数,用于更高效地处理填充数据和模型计算,其中包括pack_padded_sequence和pad_packed_sequence等函数。关于这些函数的详细信息,请读者查阅官方文档。鉴于篇幅有限,本文不再赘述。
另一种是截断。截断意味着设定一个文本长度T,然后按照这个长度从文本中截取片段用于训练。
在大语言模型中,更常用的方法是截断而不是填充。这样选择有两个主要原因。首先,虽然循环神经网络能够处理任意长度的序列数据,但当处理长距离依赖时,它会面临挑战。因此,太长的序列数据对模型的优化帮助不大,选择一个合适的序列长度更有益。其次,采用截断方法可以非常方便地多次学习同一文本。具体来说,如果文本的总长度为 L L L,那么可以逐步滑动窗口,生成 L − T + 1 L-T+1 L−T+1个序列片段(相互重叠)。这种方式大幅扩充了训练数据的数量,有助于提高模型的泛化能力。
图1所示为截断方法的一种实现,下面将使用它来准备训练数据。一些细心的读者可能会产生疑虑:这个实现似乎不能很好地处理文本长度小于 T T T的情况。的确如此,图1中提供的实现存在一些不足之处,无法处理这种“特殊”情况。它只是一个比较直观的示范,而非最佳实践。
在实际应用中,为了更全面地处理各种情况,通常采取以下方法进行截断:在每个文本的末尾添加一个特殊字符来表示结束,比如之前提到的“<|e|>”。然后,将所有文本连接成一个长串,截断操作将在这个长串上进行。这种方式能够保证即使某个文本的长度小于 T T T,也能正常处理,只是这种情况下截取的数据中包含了表示结束的特殊字符。
前文实现的循环神经网络是单层的网络结构。在横向上,模型可以根据输入的序列数据自动展开成一个宽度很大的结构,但从纵向上看,神经网络仍然只有一层。为了提升模型的表达能力,类似于多层感知器,循环神经网络也可以增加层数。这意味着可以通过叠加多个循环神经网络层来构建深度循环神经网络(Deep RNN)2,如图2所示。深度循环神经网络的展开形式是一个宽度和高度都很大的网络结构。从工程的角度来看,模型会首先横向传递信号,然后逐层向上,一层一层地计算。这种方法可以最大限度地实现并行处理,提高模型的效率。
前文所讨论的模型不仅是单层的,而且是单向的,即单向循环神经网络(Unidirectional RNN)——模型按照顺序从左到右处理序列数据。这种处理方式的假设是当前数据只依赖左侧文字的背景。然而,在实际应用中,这种假设并不总是成立。以英语为例,冠词“a”和“an”的使用取决于右侧文字,比如“a boy”和“an example”。为了提升模型效果,需要引入双向循环神经网络(Bidirectional RNN),如图3所示。这种双向设计使得模型能够更全面地捕捉序列中的依赖关系和模式,提高模型对复杂序列数据的建模能力。在自然语言处理领域,自回归模式只需要单向循环神经网络。但在自编码模式下,要预测被遮蔽的内容,需要考虑左右两侧的上下文,通常需要双向循环神经网络。
值得注意的是,图3所示的双向循环神经网络仍然只是单层神经结构,也可以叠加多层来提升模型效果。此外,双向循环神经网络的输出使用了张量拼接的处理技巧。这种简单且直观的处理方法在后续的许多复杂神经网络中也经常出现。
按照输入/输出的张量形状进行分类,前面讨论的循环神经网络都属于不定长输入、不定长输出的模型,对应这篇文章图1中的标记3。这种模型被称为标准的循环神经网络,具有广泛的适用性,简单调整后可适应各种复杂的应用场景。下面以标准循环神经网络为基础举例,构建一个用于解决翻译问题的模型,其具体结构如图4所示。
模型中包含两个标准循环神经网络,分别被称为编码器(Encoder)和解码器(Decoder)3。在图4中,编码器会逐步读入中文文本。它为每个输入的词元生成相应的隐藏状态,我们主要关注最后一个隐藏状态,它包含了整个文本的信息,会被传递给解码器。
解码器的运作方式与编码器有所不同,它不需要生成全零的初始隐藏状态,而是接收来自编码器的隐藏状态作为起点。在解码器中,初始的输入序列是表示文本开始的特殊字符“<|b|>”。与文本生成时的步骤类似,解码器会将预测结果添加到输入序列中,然后再次触发模型预测(这个过程依赖其他模型组件,例如图4中的语言建模头lmh)。如此循环,解码器逐步生成目标文本,完成翻译任务。
按照输入/输出的张量形状进行分类,编码器是不定长输入、定长输出的模型,对应这篇文章图1中的标记2。解码器将定长输入映射到不定长输出,对应这篇文章图1中的标记4。当将编码器和解码器结合在一起时,就构成了这篇文章图1中的标记5。
根据上述讨论,下面将构建一个双层的单向循环神经网络,用于语言学习。具体的模型细节可以参考程序清单2。为了防止过拟合,模型对每一层的输出进行了随机失活(Dropout)操作,如第16—17行代码所示。在实际应用中,这一设计几乎已经成为循环神经网络的标准配置。
1 | class CharRNNBatch(nn.Module):
2 |
3 | def __init__(self, vs):
4 | super().__init__()
5 | self.emb_size = 256
6 | self.hidden_size = 128
7 | self.embedding = nn.Embedding(vs, self.emb_size)
8 | self.dp = nn.Dropout(0.4)
9 | self.rnn1 = RNN(self.emb_size, self.hidden_size)
10 | self.rnn2 = RNN(self.hidden_size, self.hidden_size)
11 | self.h2o = nn.Linear(self.hidden_size, vs)
12 |
13 | def forward(self, x):
14 | # x: (B, T)
15 | emb = self.embedding(x) # (B, T, C)
16 | h = self.dp(self.rnn1(emb)) # (B, T, H)
17 | h = self.dp(self.rnn2(h)) # (B, T, H)
18 | output = self.h2o(h) # (B, T, vs)
19 | return output
与这篇文章的结果相比,新模型的预测效果有了一定改善,但仍然未能达到理想水平。如图5所示,它的表现与多层感知器旗鼓相当,这主要是由于循环神经网络在处理长距离依赖关系时表现不佳,本系列的后续文章将深入讨论这一问题。
值得注意的是,如果参考图2,本节使用随机失活的方式实际上是对神经网络中的纵向信号进行处理。然而,这不是唯一的方式,也可以对神经网络中的横向信号执行相似的操作,也就是在隐藏状态上引入失活操作。这一方法在学术界被称为循环失活(Recurrent Dropout)。
虽然PyTorch提供的封装中并不包含循环失活,但实现这一功能并不困难,只需在程序清单1的基础上稍做修改即可(鉴于篇幅,具体修改细节不再详述)。这个例子清楚展示了神经网络的灵活性,同时印证了我们不仅需要理解神经网络模型设计的细节,还需要通过代码实现它。这样就可以根据实际需求自主增添相应的模型组件,而不必受限于开源工具的开发进度和设计选择。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。