当前位置:   article > 正文

自然语言处理前馈网络

自然语言处理前馈网络

1. 实验内容

多层感知器与卷积神经网络

人工智能的众多领域,神经网络扮演着核心角色。其中,前馈神经网络因其结构简单和易于实现而备受关注。本文将深入探讨两种在前馈网络范畴内的重要模型:多层感知器(MLP)和卷积神经网络(CNN)。这两种模型在处理不同类型的数据时各有所长,为解决复杂的机器学习问题提供了强有力的工具。

MLP:扩展感知器的边界

多层感知器(MLP)是最简单的人工神经网络之一,由感知器扩展而来。它通过组合多个感知器在一个层级中,并堆叠多个层级来形成一个深层的网络结构。这种结构使得MLP能够学习更复杂的函数映射,从而在诸如分类、回归等问题上展现出卓越的性能。

 二、多层感知器

多层感知器(MLP)被认为是最基本的神经网络构建模块之一。最简单的MLP是对第3章感知器的扩展。感知器将数据向量作为输入,计算出一个输出值。在MLP中,许多感知器被分组,以便单个层的输出是一个新的向量,而不是单个输出值。在PyTorch中,正如您稍后将看到的,这只需设置线性层中的输出特性的数量即可完成。MLP的另一个方面是,它将多个层与每个层之间的非线性结合在一起。

最简单的MLP,如图4-2所示,由三个表示阶段和两个线性层组成。第一阶段是输入向量。这是给定给模型的向量。在“示例:对餐馆评论的情绪进行分类”中,输入向量是Yelp评论的一个收缩的one-hot表示。给定输入向量,第一个线性层计算一个隐藏向量——表示的第二阶段。隐藏向量之所以这样被调用,是因为它是位于输入和输出之间的层的输出。我们所说的“层的输出”是什么意思?理解这个的一种方法是隐藏向量中的值是组成该层的不同感知器的输出。使用这个隐藏的向量,第二个线性层计算一个输出向量。在像Yelp评论分类这样的二进制任务中,输出向量仍然可以是1。在多类设置中,将在本实验后面的“示例:带有多层感知器的姓氏分类”一节中看到,输出向量是类数量的大小。虽然在这个例子中,我们只展示了一个隐藏的向量,但是有可能有多个中间阶段,每个阶段产生自己的隐藏向量。最终的隐藏向量总是通过线性层和非线性的组合映射到输出向量。

Image

图4-2 一种具有两个线性层和三个表示阶段(输入向量、隐藏向量和输出向量)的MLP的可视化表示

mlp的力量来自于添加第二个线性层和允许模型学习一个线性分割的的中间表示——该属性的能表示一个直线(或更一般的,一个超平面)可以用来区分数据点落在线(或超平面)的哪一边的。学习具有特定属性的中间表示,如分类任务是线性可分的,这是使用神经网络的最深刻后果之一,也是其建模能力的精髓。在下一节中,我们将更深入地研究这意味着什么。

2.2 在 PyTorch 中实现 MLP

在上一节中,我们概述了MLP的核心思想。在本节中,我们将介绍PyTorch中的一个实现。如前所述,MLP除了实验3中简单的感知器之外,还有一个额外的计算层。在我们在例4-1中给出的实现中,我们用PyTorch的两个线性模块实例化了这个想法。线性对象被命名为fc1和fc2,它们遵循一个通用约定,即将线性模块称为“完全连接层”,简称为“fc层”。除了这两个线性层外,还有一个修正的线性单元(ReLU)非线性(在实验3“激活函数”一节中介绍),它在被输入到第二个线性层之前应用于第一个线性层的输出。由于层的顺序性,必须确保层中的输出数量等于下一层的输入数量。使用两个线性层之间的非线性是必要的,因为没有它,两个线性层在数学上等价于一个线性层4,因此不能建模复杂的模式。MLP的实现只实现反向传播的前向传递。这是因为PyTorch根据模型的定义和向前传递的实现,自动计算出如何进行向后传递和梯度更新。

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. class MultilayerPerceptron(nn.Module):
  4.     def __init__(self, input_dim, hidden_dim, output_dim):
  5.         """
  6.         Args:
  7.             input_dim (int): the size of the input vectors
  8.             hidden_dim (int): the output size of the first Linear layer
  9.             output_dim (int): the output size of the second Linear layer
  10.         """
  11.         super(MultilayerPerceptron, self).__init__()
  12.         self.fc1 = nn.Linear(input_dim, hidden_dim)
  13.         self.fc2 = nn.Linear(hidden_dim, output_dim)
  14.     def forward(self, x_in, apply_softmax=False):
  15.         """The forward pass of the MLP
  16.         Args:
  17.             x_in (torch.Tensor): an input data tensor.
  18.                 x_in.shape should be (batch, input_dim)
  19.             apply_softmax (bool): a flag for the softmax activation
  20.                 should be false if used with the Cross Entropy losses
  21.         Returns:
  22.             the resulting tensor. tensor.shape should be (batch, output_dim)
  23.         """
  24.         intermediate = F.relu(self.fc1(x_in))
  25.         output = self.fc2(intermediate)
  26.         if apply_softmax:
  27.             output = F.softmax(output, dim=1)
  28.         return output

这是一个简单的MLP的Pytorch买现,定义两个全连接层fc1和fc2,输入为一个input_dim维度的向量,经过fc1处理后得到hidden dim维度的向量,使用非线性激活函数relu进行处理后再经fc2进行处理,得到一个output dim维度的向量,根据apply softmax参数控制是否进行softmax.


由于层的顺序性,必须确保层中的输出数量等于下一层的输入数量。使用两个线性层之间的非线性是必要的,因为没有它,两个线性层在数学上等价于一个线性层4,因此不能建模复杂的模式。

MLP的实现只实现反向传播的前向传递。这是因为PyTorch根据模型的定义和向前传递的实现,自动计算出如何进行向后传递和梯度更新。


我们实例化一个input_dim为3.hidden_dim为100.output_dim为4的MLP网络,并通过传递一些随机输入来快速测试模型的“连接”,如下面所示。因为模型还没有经过训练,所以输出是随机的。

  1. batch_size = 2 # number of samples input at once
  2. input_dim = 3 # 输入特征维度
  3. hidden_dim = 100 # 隐藏层维度
  4. output_dim = 4 # 输出维度
  5. # Initialize model
  6. mlp = MultilayerPerceptron(input_dim, hidden_dim, output_dim)
  7. print(mlp)

学习如何读取PyTorch模型的输入和输出非常重要。在前面的例子中,MLP模型的输出是一个有两行四列的张量。这个张量中的行与批处理维数对应,批处理维数是小批处理中的数据点的数量。列是每个数据点的最终特征向量。在某些情况下,例如在分类设置中,特征向量是一个预测向量。名称为“预测向量”表示它对应于一个概率分布。预测向量会发生什么取决于我们当前是在进行训练还是在执行推理。在训练期间,输出按原样使用,带有一个损失函数和目标类标签的表示。我们将在“示例:带有多层感知器的姓氏分类”中对此进行深入介绍。

但是,如果想将预测向量转换为概率,则需要额外的步骤。具体来说,需要softmax函数,它用于将一个值向量转换为概率。softmax有许多根。在物理学中,它被称为玻尔兹曼或吉布斯分布;在统计学中,它是多项式逻辑回归;在自然语言处理(NLP)社区,它是最大熵(MaxEnt)分类器。不管叫什么名字,这个函数背后的直觉是,大的正值会导致更高的概率,小的负值会导致更小的概率。

三、实验步骤

3.1 示例:使用多层感知器进行姓氏分类

在本节中,我们将MLP应用于将姓氏分类到其原籍国的任务。从公开观察到的数据推断人口统计信息(如国籍)具有从产品推荐到确保不同人口统计用户获得公平结果的应用。人口统计和其他自我识别信息统称为“受保护属性”。“在建模和产品中使用这些属性时,必须小心。”我们首先对每个姓氏的字符进行拆分,并像对待“示例:将餐馆评论的情绪分类”中的单词一样对待它们。除了数据上的差异,字符层模型在结构和实现上与基于单词的模型基本相似.

本节的其余部分将从姓氏数据集及其预处理步骤的描述开始。然后,我们使用词汇表、向量化器和DataLoader类逐步完成从姓氏字符串到向量化小批处理的管道。如果你通读了实验3,应该知道,这里只是做了一些小小的修改。

我们将通过描述姓氏分类器模型及其设计背后的思想过程来继续本节。MLP类似于我们在实验3中看到的感知器例子,但是除了模型的改变,我们在这个例子中引入了多类输出及其对应的损失函数。在描述了模型之后,我们完成了训练例程。训练程序与“示例:对餐馆评论的情绪进行分类”非常相似,因此为了简洁起见,我们在这里不像在该部分中那样深入,可以回顾这一节内容。

3.1.1 姓氏数据集

姓氏数据集,它收集了来自18个不同国家的10,000个姓氏,这些姓氏是作者从互联网上不同的姓名来源收集的。该数据集将在本课程实验的几个示例中重用,并具有一些使其有趣的属性。第一个性质是它是相当不平衡的。排名前三的课程占数据的60%以上:27%是英语,21%是俄语,14%是阿拉伯语。剩下的15个民族的频率也在下降——这也是语言特有的特性。第二个特点是,在国籍和姓氏正字法(拼写)之间有一种有效和直观的关系。有些拼写变体与原籍国联系非常紧密(比如“O ‘Neill”、“Antonopoulos”、“Nagasawa”或“Zhu”)。

为了创建最终的数据集,我们从一个比课程补充材料中包含的版本处理更少的版本开始,并执行了几个数据集修改操作。第一个目的是减少这种不平衡——原始数据集中70%以上是俄文,这可能是由于抽样偏差或俄文姓氏的增多。为此,我们通过选择标记为俄语的姓氏的随机子集对这个过度代表的类进行子样本。接下来,我们根据国籍对数据集进行分组,并将数据集分为三个部分:70%到训练数据集,15%到验证数据集,最后15%到测试数据集,以便跨这些部分的类标签分布具有可比性。

  1. from torch.utils.data import Dataset
  2. class SurnameDataset(Dataset):
  3. def __init__(self, target_df, vectorizer):
  4. self._target_df = target_df
  5. self._vectorizer = vectorizer
  6. def __getitem__(self, index):
  7. row = self._target_df.iloc[index]
  8. surname_vector = self._vectorizer.vectorize(row.surname)
  9. nationality_index = self._vectorizer.nationality_vocab.lookup_token(row.nationality)
  10. return {'x_surname': surname_vector,
  11. 'y_nationality': nationality_index}
  12. def __len__(self):
  13. return len(self._target_df)

3.1.2 姓氏分类器模型

SurnameClassifier是本实验前面介绍的MLP的实现。第一个线性层将输入向量映射到中间向量,并对该向量应用非线性。第二线性层将中间向量映射到预测向量。

在最后一步中,可选地应用softmax操作,以确保输出和为1;这就是所谓的“概率”。它是可选的原因与我们使用的损失函数的数学公式有关——交叉熵损失。我们研究了“损失函数”中的交叉熵损失。回想一下,交叉熵损失对于多类分类是最理想的,但是在训练过程中软最大值的计算不仅浪费而且在很多情况下并不稳定。

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. class SurnameClassifier(nn.Module):
  4. """ A 2-layer Multilayer Perceptron for classifying surnames """
  5. def __init__(self, input_dim, hidden_dim, output_dim):
  6. """
  7. Args:
  8. input_dim (int): the size of the input vectors
  9. hidden_dim (int): the output size of the first Linear layer
  10. output_dim (int): the output size of the second Linear layer
  11. """
  12. super(SurnameClassifier, self).__init__()
  13. self.fc1 = nn.Linear(input_dim, hidden_dim)
  14. self.fc2 = nn.Linear(hidden_dim, output_dim)
  15. def forward(self, x_in, apply_softmax=False):
  16. """The forward pass of the classifier
  17. Args:
  18. x_in (torch.Tensor): an input data tensor.
  19. x_in.shape should be (batch, input_dim)
  20. apply_softmax (bool): a flag for the softmax activation
  21. should be false if used with the Cross Entropy losses
  22. Returns:
  23. the resulting tensor. tensor.shape should be (batch, output_dim)
  24. """
  25. intermediate_vector = F.relu(self.fc1(x_in))
  26. prediction_vector = self.fc2(intermediate_vector)
  27. if apply_softmax:
  28. prediction_vector = F.softmax(prediction_vector, dim=1)
  29. return prediction_vector

3.1.3 训练程序

  1. import argparse
  2. args = argparse.Namespace(
  3. # Data and path information
  4. surname_csv="surnames_with_splits.csv",
  5. vectorizer_file="vectorizer.json",
  6. model_state_file="model.pth",
  7. save_dir="surname_mlp",
  8. # Model hyper parameters
  9. hidden_dim=300,
  10. # Training hyper parameters
  11. seed=1337,
  12. num_epochs=100,
  13. early_stopping_criteria=5,
  14. learning_rate=0.001,
  15. batch_size=64,
  16. # Runtime options omitted for space
  17. )
  18. print(args.surname_csv)
  19. print(args.num_epochs)

训练中最显著的差异与模型中输出的种类和使用的损失函数有关。在这个例子中,输出是一个多类预测向量,可以转换为概率。正如在模型描述中所描述的,这种输出的损失类型仅限于CrossEntropyLoss和NLLLoss。由于它的简化,我们使用了CrossEntropyLoss。

3.1.4 对新姓氏进行分类

显示了分类新姓氏的代码。给定一个姓氏作为字符串,该函数将首先应用向量化过程,然后获得模型预测。注意,我们包含了apply_softmax标志,所以结果包含概率。模型预测,在多项式的情况下,是类概率的列表。我们使用PyTorch张量最大函数来得到由最高预测概率表示的最优类。

  1. def predict_nationality(name, classifier, vectorizer): # 预测给定姓名对应的国籍
  2. vectorized_name = vectorizer.vectorize(name)
  3. vectorized_name = torch.tensor(vectorized_name).view(1, -1)
  4. result = classifier(vectorized_name, apply_softmax=True)
  5. probability_values, indices = result.max(dim=1) # 获取预测概率最高的类别和概率值
  6. index = indices.item()
  7. predicted_nationality = vectorizer.nationality_vocab.lookup_index(index)
  8. probability_value = probability_values.item()
  9. return {'nationality': predicted_nationality,
  10. 'probability': probability_value}

正则化


为了解决过拟合问题,我们进行正则化:权重正则化——L1和L2,结构正则化——dropout。这些正则化方法适用与MLP。
L1和L2正则化通过在损失函数中引入额外的惩罚项,来对模型参数进行约束,从而降低模型的复杂度,防止过拟合,提高模型泛化能力。这个额外的惩罚项通常和模型参数的大小和数量有关
而Dropout,简单地说,在识乐过程中,dropout有一定概率使属于两个相邻层的单元之间的连接减弱。因为如果两个单元之间的联系变得过于紧密,而牺牲了其他单元之间的联系,通常会导致模型与数据过拟合。通过概率地丢弃单元之间的连接,我们可以确保没有一个单元总是依赖于另一个单元,从而产生健壮的模型。通过引入一个超参数——“drop probability”,表示单位之间连接drop的概率,通常可为0.5。

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. class MultilayerPerceptron(nn.Module):
  4. def __init__(self, input_dim, hidden_dim, output_dim):
  5. """
  6. Args:
  7. input_dim (int): the size of the input vectors
  8. hidden_dim (int): the output size of the first Linear layer
  9. output_dim (int): the output size of the second Linear layer
  10. """
  11. super(MultilayerPerceptron, self).__init__()
  12. self.fc1 = nn.Linear(input_dim, hidden_dim)
  13. self.fc2 = nn.Linear(hidden_dim, output_dim)
  14. def forward(self, x_in, apply_softmax=False):
  15. """The forward pass of the MLP
  16. Args:
  17. x_in (torch.Tensor): an input data tensor.
  18. x_in.shape should be (batch, input_dim)
  19. apply_softmax (bool): a flag for the softmax activation
  20. should be false if used with the Cross Entropy losses
  21. Returns:
  22. the resulting tensor. tensor.shape should be (batch, output_dim)
  23. """
  24. intermediate = F.relu(self.fc1(x_in))
  25. output = self.fc2(F.dropout(intermediate, p=0.5))
  26. if apply_softmax:
  27. output = F.softmax(output, dim=1)
  28. return output

四、CNN实现

4.1历史背景

CNNs的名称和基本功能源于经典的数学运算卷积。卷积已经应用于各种工程学科,包括数字信号处理和计算机图形学。一般来说,卷积使用程序员指定的参数。这些参数被指定来匹配一些功能设计,如突出边缘或抑制高频声音。事实上,许多Photoshop滤镜都是应用于图像的固定卷积运算。然而,在深度学习和本实验中,我们从数据中学习卷积滤波器的参数,因此它对于解决当前的任务是最优的。

4.2CNN 超参数

为了理解不同的设计决策对CNN意味着什么,我们在图4-6中展示了一个示例。在本例中,单个“核”应用于输入矩阵。卷积运算(线性算子)的精确数学表达式对于理解这一节并不重要,但是从这个图中可以直观地看出,核是一个小的方阵,它被系统地应用于输入矩阵的不同位置。

输入矩阵与单个产生输出矩阵的卷积核(也称为特征映射)在输入矩阵的每个位置应用内核。在每个应用程序中,内核乘以输入矩阵的值及其自身的值,然后将这些乘法相加kernel具有以下超参数配置:kernel_size=2,stride=1,padding=0,以及dilation=1。这些超参数解释如下:

虽然经典卷积是通过指定核的具体值来设计的,但是CNN是通过指定控制CNN行为的超参数来设计的,然后使用梯度下降来为给定数据集找到最佳参数。两个主要的超参数控制卷积的形状(称为kernel_size)和卷积将在输入数据张量(称为stride)中相乘的位置。还有一些额外的超参数控制输入数据张量被0填充了多少(称为padding),以及当应用到输入数据张量(称为dilation)时,乘法应该相隔多远。在下面的小节中,我们将更详细地介绍这些超参数。

4.3卷积运算的维度

首先要理解的概念是卷积运算的维数。在图4-6和本节的其他图中,我们使用二维卷积进行说明,但是根据数据的性质,还有更适合的其他维度的卷积。在PyTorch中,卷积可以是一维、二维或三维的,分别由Conv1d、Conv2d和Conv3d模块实现。一维卷积对于每个时间步都有一个特征向量的时间序列非常有用。在这种情况下,我们可以在序列维度上学习模式。NLP中的卷积运算大多是一维的卷积。另一方面,二维卷积试图捕捉数据中沿两个方向的时空模式;例如,在图像中沿高度和宽度维度——为什么二维卷积在图像处理中很流行。类似地,在三维卷积中,模式是沿着数据中的三维捕获的。例如,在视频数据中,信息是三维的,二维表示图像的帧,时间维表示帧的序列。就本课程而言,我们主要使用Conv1d。

4.4渠道

非正式地,通道(channel)是指沿输入中的每个点的特征维度。例如,在图像中,对应于RGB组件的图像中的每个像素有三个通道。在使用卷积时,文本数据也可以采用类似的概念。从概念上讲,如果文本文档中的“像素”是单词,那么通道的数量就是词汇表的大小。如果我们更细粒度地考虑字符的卷积,通道的数量就是字符集的大小(在本例中刚好是词汇表)。在PyTorch卷积实现中,输入通道的数量是in_channels参数。卷积操作可以在输出(out_channels)中产生多个通道。您可以将其视为卷积运算符将输入特征维“映射”到输出特征维。图4-7和图4-8说明了这个概念。

4.5填充

即使stride和kernel_size允许控制每个计算出的特征值有多大范围,它们也有一个有害的、有时是无意的副作用,那就是缩小特征映射的总大小(卷积的输出)。为了抵消这一点,输入数据张量被人为地增加了长度(如果是一维、二维或三维)、高度(如果是二维或三维)和深度(如果是三维),方法是在每个维度上附加和前置0。这意味着CNN将执行更多的卷积,但是输出形状可以控制,而不会影响所需的核大小、步幅或扩展。图4-11展示了正在运行的填充。

4.6 在 PyTorch 中实现 CNN

在本节中,我们将通过端到端示例来利用上一节中介绍的概念。一般来说,神经网络设计的目标是找到一个能够完成任务的超参数组态。我们再次考虑在“示例:带有多层感知器的姓氏分类”中引入的现在很熟悉的姓氏分类任务,但是我们将使用CNNs而不是MLP。我们仍然需要应用最后一个线性层,它将学会从一系列卷积层创建的特征向量创建预测向量。这意味着目标是确定卷积层的配置,从而得到所需的特征向量。所有CNN应用程序都是这样的:首先有一组卷积层,它们提取一个feature map,然后将其作为上游处理的输入。在分类中,上游处理几乎总是应用线性(或fc)层。

本课程中的实现遍历设计决策,以构建一个特征向量。我们首先构造一个人工数据张量,以反映实际数据的形状。数据张量的大小是三维的——这是向量化文本数据的最小批大小。如果你对一个字符序列中的每个字符使用onehot向量,那么onehot向量序列就是一个矩阵,而onehot矩阵的小批量就是一个三维张量。使用卷积的术语,每个onehot(通常是词汇表的大小)的大小是”input channels”的数量,字符序列的长度是“width”。

  1. import torch
  2. import torch.nn as nn
  3. batch_size = 2 # 批处理大小
  4. one_hot_size = 10 # 独热编码大小
  5. sequence_width = 7 # 序列宽度
  6. # 生成随机数据张量
  7. data = torch.randn(batch_size, one_hot_size, sequence_width)
  8. # 定义一维卷积层
  9. conv1 = nn.Conv1d(in_channels=one_hot_size, # 输入通道数
  10. out_channels=16, # 输出通道数
  11. kernel_size=3) # 卷积核大小
  12. intermediate1 = conv1(data)
  13. print(data.size())
  14. print(intermediate1.size())

进一步减小输出张量的主要方法有三种。第一种方法是创建额外的卷积并按顺序应用它们。最终,对应的sequence_width (dim=2)维度的大小将为1。我们在例4-15中展示了应用两个额外卷积的结果。一般来说,对输出张量的约简应用卷积的过程是迭代的,需要一些猜测工作。我们的示例是这样构造的:经过三次卷积之后,最终的输出在最终维度上的大小为1

  1. # 定义第二层一维卷积层
  2. conv2 = nn.Conv1d(in_channels=16, # 输入通道数
  3. out_channels=32, # 输出通道数
  4. kernel_size=3) # 卷积核大小
  5. conv3 = nn.Conv1d(in_channels=32,
  6. out_channels=64,
  7. kernel_size=3)
  8. # 通过第二层卷积层处理中间结果
  9. intermediate2 = conv2(intermediate1)
  10. intermediate3 = conv3(intermediate2)
  11. # 打印第二层卷积后的中间结果张量的形状
  12. print(intermediate2.size())
  13. print(intermediate3.size())

在每次卷积中,通道维数的大小都会增加,因为通道维数是每个数据点的特征向量。张量实际上是一个特征向量的最后一步是去掉讨厌的尺寸=1维。您可以使用squeeze()方法来实现这一点。该方法将删除size=1的所有维度并返回结果。然后,得到的特征向量可以与其他神经网络组件(如线性层)一起使用来计算预测向量。

另外还有两种方法可以将张量简化为每个数据点的一个特征向量:将剩余的值压平为特征向量,并在额外维度上求平均值。这两种方法如示例4-16所示。使用第一种方法,只需使用PyTorch的view()方法将所有向量平展成单个向量。第二种方法使用一些数学运算来总结向量中的信息。最常见的操作是算术平均值,但沿feature map维数求和和使用最大值也是常见的。每种方法都有其优点和缺点。扁平化保留了所有的信息,但会导致比预期(或计算上可行)更大的特征向量。平均变得与额外维度的大小无关,但可能会丢失信息。

4.6.1 示例:使用 CNN 对姓氏进行分类

为了证明CNN的有效性,让我们应用一个简单的CNN模型来分类姓氏。这项任务的许多细节与前面的MLP示例相同,但真正发生变化的是模型的构造和向量化过程。模型的输入,而不是我们在上一个例子中看到的收缩的onehot,将是一个onehot的矩阵。这种设计将使CNN能够更好地“view”字符的排列,并对在“示例:带有多层感知器的姓氏分类”中使用的收缩的onehot编码中丢失的序列信息进行编码。

4.6.2姓氏数据集

虽然姓氏数据集之前在“示例:带有多层感知器的姓氏分类”中进行了描述,但建议参考“姓氏数据集”来了解它的描述。尽管我们使用了来自“示例:带有多层感知器的姓氏分类”中的相同数据集,但在实现上有一个不同之处:数据集由onehot向量矩阵组成,而不是一个收缩的onehot向量。为此,我们实现了一个数据集类,它跟踪最长的姓氏,并将其作为矩阵中包含的行数提供给矢量化器。列的数量是onehot向量的大小(词汇表的大小)。示例4-17显示了对SurnameDataset.__getitem__的更改;我们显示对SurnameVectorizer的更改。在下一小节向量化。

我们使用数据集中最长的姓氏来控制onehot矩阵的大小有两个原因。首先,将每一小批姓氏矩阵组合成一个三维张量,要求它们的大小相同。其次,使用数据集中最长的姓氏意味着可以以相同的方式处理每个小批处理。

  1. class SurnameDataset(Dataset):
  2. def __init__(self, surname_df, vectorizer):
  3. """
  4. Args:
  5. surname_df (pandas.DataFrame): 数据集
  6. vectorizer (SurnameVectorizer): 从数据集实例化的向量化器
  7. """
  8. self.surname_df = surname_df
  9. self._vectorizer = vectorizer
  10. self.train_df = self.surname_df[self.surname_df.split=='train'] # 训练集DataFrame
  11. self.train_size = len(self.train_df) # 训练集大小
  12. self.val_df = self.surname_df[self.surname_df.split=='val'] # 验证集DataFrame
  13. self.validation_size = len(self.val_df) # 验证集大小
  14. self.test_df = self.surname_df[self.surname_df.split=='test'] # 测试集DataFrame
  15. self.test_size = len(self.test_df) # 测试集大小
  16. # 以字典形式存储数据集拆分
  17. self._lookup_dict = {'train': (self.train_df, self.train_size),
  18. 'val': (self.val_df, self.validation_size),
  19. 'test': (self.test_df, self.test_size)}
  20. self.set_split('train') # 设置当前拆分为训练集
  21. # 类别权重
  22. class_counts = surname_df.nationality.value_counts().to_dict() # 统计每个国籍的样本数
  23. def sort_key(item):
  24. return self._vectorizer.nationality_vocab.lookup_token(item[0])
  25. sorted_counts = sorted(class_counts.items(), key=sort_key) # 按国籍词汇表的顺序对样本数进行排序
  26. frequencies = [count for _, count in sorted_counts]
  27. self.class_weights = 1.0 / torch.tensor(frequencies, dtype=torch.float32) # 计算类别权重
  28. @classmethod
  29. def load_dataset_and_make_vectorizer(cls, surname_csv):
  30. """加载数据集并从头开始创建新的向量化器
  31. Args:
  32. surname_csv (str): 数据集的位置
  33. Returns:
  34. SurnameDataset的实例
  35. """
  36. surname_df = pd.read_csv(surname_csv) # 从CSV文件加载数据集
  37. train_surname_df = surname_df[surname_df.split=='train'] # 获取训练集DataFrame
  38. return cls(surname_df, SurnameVectorizer.from_dataframe(train_surname_df)) # 实例化SurnameDataset对象
  39. @classmethod
  40. def load_dataset_and_load_vectorizer(cls, surname_csv, vectorizer_filepath):
  41. """加载数据集和相应的向量化器。
  42. 在向量化器已经缓存以便重用的情况下使用
  43. Args:
  44. surname_csv (str): 数据集的位置
  45. vectorizer_filepath (str): 保存的向量化器的位置
  46. Returns:
  47. SurnameDataset的实例
  48. """
  49. surname_df = pd.read_csv(surname_csv) # 从CSV文件加载数据集
  50. vectorizer = cls.load_vectorizer_only(vectorizer_filepath) # 加载向量化器
  51. return cls(surname_df, vectorizer) # 实例化SurnameDataset对象
  52. @staticmethod
  53. def load_vectorizer_only(vectorizer_filepath):
  54. """从文件加载向量化器的静态方法
  55. Args:
  56. vectorizer_filepath (str): 序列化向量化器的位置
  57. Returns:
  58. SurnameDataset的实例
  59. """
  60. with open(vectorizer_filepath) as fp:
  61. return SurnameVectorizer.from_serializable(json.load(fp)) # 从文件加载向量化器
  62. def save_vectorizer(self, vectorizer_filepath):
  63. """使用json保存向量化器到磁盘
  64. Args:
  65. vectorizer_filepath (str): 保存向量化器的位置
  66. """
  67. with open(vectorizer_filepath, "w") as fp:
  68. json.dump(self._vectorizer.to_serializable(), fp) # 将向量化器序列化为JSON并保存到文件中
  69. def get_vectorizer(self):
  70. """返回向量化器"""
  71. return self._vectorizer # 返回向量化器
  72. def set_split(self, split="train"):
  73. """使用数据框中的列选择数据集的拆分"""
  74. self._target_split = split # 设置目标拆分
  75. self._target_df, self._target_size = self._lookup_dict[split] # 获取目标拆分的DataFrame和大小
  76. def __len__(self):
  77. return self._target_size # 返回数据集大小
  78. def __getitem__(self, index):
  79. """PyTorch数据集的主要入口方法
  80. Args:
  81. index (int): 数据点的索引
  82. Returns:
  83. 一个字典,包含数据点的特征(x_data)和标签(y_target)
  84. """
  85. row = self._target_df.iloc[index] # 获取索引处的行数据
  86. surname_matrix = \
  87. self._vectorizer.vectorize(row.surname) # 使用向量化器将姓氏转换为矩阵形式
  88. nationality_index = \
  89. self._vectorizer.nationality_vocab.lookup_token(row.nationality) # 获取国籍的索引
  90. return {'x_surname': surname_matrix,
  91. 'y_nationality': nationality_index} # 返回姓氏矩阵和国籍索引的字典
  92. def get_num_batches(self, batch_size):
  93. """给定批量大小,返回数据集中的批次数
  94. Args:
  95. batch_size (int)
  96. Returns:
  97. 数据集中的批次数
  98. """
  99. return len(self) // batch_size # 返回数据集中的批次数
  100. def generate_batches(dataset, batch_size, shuffle=True,
  101. drop_last=True, device="cpu"):
  102. """
  103. 一个生成器函数,它封装了PyTorch DataLoader。
  104. 它将确保每个张量都位于正确的设备位置。
  105. """
  106. dataloader = DataLoader(dataset=dataset, batch_size=batch_size,
  107. shuffle=shuffle, drop_last=drop_last) # 创建DataLoader对象
  108. for data_dict in dataloader:
  109. out_data_dict = {}
  110. for name, tensor in data_dict.items():
  111. out_data_dict[name] = data_dict[name].to(device) # 将张量移到指定设备
  112. yield out_data_dict # 生成数据字典

4.6.3词汇、矢量化器和 DataLoader

在本例中,尽管词汇表和DataLoader的实现方式与“示例:带有多层感知器的姓氏分类”中的示例相同,但Vectorizer的vectorize()方法已经更改,以适应CNN模型的需要。具体来说,正如我们在示例4-18中的代码中所示,该函数将字符串中的每个字符映射到一个整数,然后使用该整数构造一个由onehot向量组成的矩阵。重要的是,矩阵中的每一列都是不同的onehot向量。主要原因是,我们将使用的Conv1d层要求数据张量在第0维上具有批处理,在第1维上具有通道,在第2维上具有特性。

除了更改为使用onehot矩阵之外,我们还修改了矢量化器,以便计算姓氏的最大长度并将其保存为max_surname_length

  1. class SurnameVectorizer(object):
  2. """ The Vectorizer which coordinates the Vocabularies and puts them to use"""
  3. def vectorize(self, surname):
  4. """
  5. Args:
  6. surname (str): the surname
  7. Returns:
  8. one_hot_matrix (np.ndarray): a matrix of one-hot vectors
  9. """
  10. one_hot_matrix_size = (len(self.character_vocab), self.max_surname_length)
  11. one_hot_matrix = np.zeros(one_hot_matrix_size, dtype=np.float32)
  12. for position_index, character in enumerate(surname):
  13. character_index = self.character_vocab.lookup_token(character)
  14. one_hot_matrix[character_index][position_index] = 1
  15. return one_hot_matrix
  16. @classmethod
  17. def from_dataframe(cls, surname_df):
  18. """Instantiate the vectorizer from the dataset dataframe
  19. Args:
  20. surname_df (pandas.DataFrame): the surnames dataset
  21. Returns:
  22. an instance of the SurnameVectorizer
  23. """
  24. character_vocab = Vocabulary(unk_token="@")
  25. nationality_vocab = Vocabulary(add_unk=False)
  26. max_surname_length = 0
  27. for index, row in surname_df.iterrows():
  28. max_surname_length = max(max_surname_length, len(row.surname))
  29. for letter in row.surname:
  30. character_vocab.add_token(letter)
  31. nationality_vocab.add_token(row.nationality)
  32. return cls(character_vocab, nationality_vocab, max_surname_length)

4.6.4 使用卷积网络重新实现 SurnameClassifier

我们在本例中使用的模型是使用我们在“卷积神经网络”中介绍的方法构建的。实际上,我们在该部分中创建的用于测试卷积层的“人工”数据与姓氏数据集中使用本例中的矢量化器的数据张量的大小完全匹配。正如在示例4-19中所看到的,它与我们在“卷积神经网络”中引入的Conv1d序列既有相似之处,也有需要解释的新添加内容。具体来说,该模型类似于“卷积神经网络”,它使用一系列一维卷积来增量地计算更多的特征,从而得到一个单特征向量。

然而,本例中的新内容是使用sequence和ELU PyTorch模块。序列模块是封装线性操作序列的方便包装器。在这种情况下,我们使用它来封装Conv1d序列的应用程序。ELU是类似于实验3中介绍的ReLU的非线性函数,但是它不是将值裁剪到0以下,而是对它们求幂。ELU已经被证明是卷积层之间使用的一种很有前途的非线性。

在本例中,我们将每个卷积的通道数与num_channels超参数绑定。我们可以选择不同数量的通道分别进行卷积运算。这样做需要优化更多的超参数。我们发现256足够大,可以使模型达到合理的性能。

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. class SurnameClassifier(nn.Module):
  4. def __init__(self, initial_num_channels, num_classes, num_channels):
  5. """
  6. Args:
  7. initial_num_channels (int): size of the incoming feature vector
  8. num_classes (int): size of the output prediction vector
  9. num_channels (int): constant channel size to use throughout network
  10. """
  11. super(SurnameClassifier, self).__init__()
  12. self.convnet = nn.Sequential(
  13. nn.Conv1d(in_channels=initial_num_channels,
  14. out_channels=num_channels, kernel_size=3),
  15. nn.ELU(),
  16. nn.Conv1d(in_channels=num_channels, out_channels=num_channels,
  17. kernel_size=3, stride=2),
  18. nn.ELU(),
  19. nn.Conv1d(in_channels=num_channels, out_channels=num_channels,
  20. kernel_size=3, stride=2),
  21. nn.ELU(),
  22. nn.Conv1d(in_channels=num_channels, out_channels=num_channels,
  23. kernel_size=3),
  24. nn.ELU()
  25. )
  26. self.fc = nn.Linear(num_channels, num_classes)
  27. def forward(self, x_surname, apply_softmax=False):
  28. """The forward pass of the classifier
  29. Args:
  30. x_surname (torch.Tensor): an input data tensor.
  31. x_surname.shape should be (batch, initial_num_channels,
  32. max_surname_length)
  33. apply_softmax (bool): a flag for the softmax activation
  34. should be false if used with the Cross Entropy losses
  35. Returns:
  36. the resulting tensor. tensor.shape should be (batch, num_classes)
  37. """
  38. features = self.convnet(x_surname).squeeze(dim=2)
  39. prediction_vector = self.fc(features)
  40. if apply_softmax:
  41. prediction_vector = F.softmax(prediction_vector, dim=1)
  42. return prediction_vector

其余步骤和MLP基本相似,对MLP和CNN的认知也就到这里。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/752943
推荐阅读
相关标签
  

闽ICP备14008679号