赞
踩
机器学习模型将向量(数字数组)作为输入。在处理文本时,我们必须先想出一种策略,将字符串转换为数字(或将文本“向量化”),然后再其馈入模型。
实现这一目标的三种策略:
作为第一个想法,可以对词汇表中的每个单词进行“独热”编码。考虑这样一句话:“The cat sat on the mat”。这句话中的词汇(或唯一单词)是(cat、mat、on、sat、the)。为了表示每个单词,我们将创建一个长度等于词汇量的零向量,然后在与该单词对应的索引中放置一个 1。
为了创建一个包含句子编码的向量,我们可以将每个单词的独热向量连接起来。
要点:这种方法效率低下。一个独热编码向量十分稀疏(这意味着大多数索引为零)。假设我们的词汇表中有 10,000 个单词。为了对每个单词进行独热编码,我们将创建一个其中 99.99% 的元素都为零的向量。
第二种方法是使用唯一的数字来编码每个单词。继续上面的示例,可以将 1 分配给“cat”,将 2 分配给“mat”,依此类推。然后,我们可以将句子“The cat sat on the mat”编码为一个密集向量,例如 [5, 1, 4, 3, 5, 2]。这种方法是高效的。现在,我们有了一个密集向量(所有元素均已满),而不是稀疏向量。
但是,这种方法有两个缺点:
整数编码是任意的(它不会捕获单词之间的任何关系)。
对于要解释的模型而言,整数编码颇具挑战。例如,线性分类器针对每个特征学习一个权重。由于任何两个单词的相似性与其编码的相似性之间都没有关系,因此这种特征权重组合没有意义。
单词嵌入向量为我们提供了一种使用高效、密集表示的方法,其中相似的单词具有相似的编码。重要的是不必手动指定此编码。嵌入向量是浮点值的密集向量(向量的长度是可以指定的参数)。它们是可以训练的参数(模型在训练过程中学习的权重,与模型学习密集层权重的方法相同),无需手动为嵌入向量指定值。8 维的单词嵌入向量(对于小型数据集)比较常见,而在处理大型数据集时最多可达 1024 维。维度更高的嵌入向量可以捕获单词之间的细粒度关系,但需要更多的数据来学习。Word Embedding矩阵给每个单词分配一个固定长度的向量表示,这个长度可以自行设定,比如300,实际上会远远小于字典长度(比如10000)。而且两个单词向量之间的夹角值可以作为他们之间关系的一个衡量。如下表示:
Word Embedding表示法
通过简单的余弦函数,我们就可以计算两个单词之间的相关性,简单高效:
- import tensorflow as tf
- from icecream import ic
- from tensorflow import keras
- from tensorflow.keras import layers
- #1 导入数据
- import tensorflow_datasets as tfds
- tfds.disable_progress_bar()
- #2 使用嵌入向量层
- '''
- 可以将嵌入向量层理解为一个从整数索引(代表特定单词)映射到密集向量(其嵌入向量)的查找表。嵌入向量的维数(或宽度)是一个参数,
- 可以试验它的数值,以了解多少维度适合问题,这与试验密集层中神经元数量的方式非常相似。
- '''
- embedding_layer = layers.Embedding(1000, 5)
- '''
- 创建嵌入向量层时,嵌入向量的权重会随机初始化(就像其他任何层一样)。在训练过程中,通过反向传播来逐渐调整这些权重。
- 训练后,学习到的单词嵌入向量将粗略地编码单词之间的相似性(因为它们是针对训练模型的特定问题而学习的)。
- '''
- #如果将整数传递给嵌入向量层,结果会将每个整数替换为嵌入向量表中的向量:
- result = embedding_layer(tf.constant([1,2,3]))
- ic(result.numpy())
运行结果:
- ic| result.numpy(): array([[-0.04286907, 0.01746731, 0.03539313, -0.04714948, 0.01741666],
- [-0.0271346 , -0.04651893, 0.03715916, 0.02202106, -0.04117215],
- [-0.00178969, 0.01628102, 0.03589281, 0.01006144, 0.03929297]],
- dtype=float32)
- '''
- 对于文本或序列问题,嵌入向量层采用整数组成的 2D 张量,其形状为 (samples, sequence_length),
- 其中每个条目都是一个整数序列。它可以嵌入可变长度的序列。您可以在形状为 (32, 10)(32 个长度为 10 的序列组成的批次)或
- (64, 15)(64 个长度为 15 的序列组成的批次)的批次上方馈入嵌入向量层。
- '''
- #返回的张量比输入多一个轴,嵌入向量沿新的最后一个轴对齐。向其传递 (2, 3) 输入批次,输出为 (2, 3, N)
- #result = embedding_layer(tf.constant([[0,1,2],[3,4,5]]))
- #ic(result.shape)
- #ic| result.shape: TensorShape([2, 3, 5]),这里的5,是之前embeddiing(1000,5)层设置的5维参数
- '''
- 当给定一个序列批次作为输入时,嵌入向量层将返回形状为 (samples, sequence_length, embedding_dimensionality) 的 3D 浮点张量。
- 为了从可变长度的序列转换为固定表示,有多种标准方法。可以先使用 RNN、注意力或池化层,然后再将其传递给密集层。下面使用池化,因为它最简单。
- 以后使用 RNN 进行文本分类是一个不错的选择。
- '''
- #基于 IMDB 电影评论来训练情感分类器
- import tensorflow as tf
- from icecream import ic
- from tensorflow import keras
- from tensorflow.keras import layers
-
- #1 导入数据
- import tensorflow_datasets as tfds
- tfds.disable_progress_bar()#Disabled Tqdm progress bar.
- (train_data, test_data), info = tfds.load(
- 'imdb_reviews/subwords8k',
- split = (tfds.Split.TRAIN, tfds.Split.TEST),
- with_info=True, as_supervised=True)
-
-
- #2 获取编码器 (tfds.features.text.SubwordTextEncoder),并快速浏览词汇表。
- #词汇表中的“”代表空格。请注意词汇表如何包含完整单词(以“”结尾)以及可用于构建更大单词的部分单词:
- encoder = info.features['text'].encoder
- ic(encoder.subwords[:20])
-
-
- #3 电影评论的长度可以不同。我们将使用 padded_batch 方法来标准化评论的长度。
- train_batches = train_data.shuffle(1000).padded_batch(10)
- #3.1 打乱数据 shuffle(1000)
- # 从train_data数据集中按顺序抽取buffer_size(1000)个样本放在buffer中,然后打乱buffer中的样本
- # buffer中样本个数不足buffer_size,继续从data数据集中安顺序填充至buffer_size,
- # 此时会再次打乱
- test_batches = test_data.shuffle(1000).padded_batch(10)
- '''
- dataset.shuffle作用是将数据进行打乱操作,传入参数为buffer_size,改参数为设置“打乱缓存区大小”,
- 也就是说程序会维持一个buffer_size大小的缓存,每次都会随机在这个缓存区抽取一定数量的数据
- dataset.batch作用是将数据打包成batch_size
- dataset.repeat作用就是将数据重复使用多少epoch
- '''
- '''
- padded_batch(
- batch_size, padded_shapes=None, padding_values=None, drop_remainder=False
- )
- 注意参数drop_remainder用来约束最后一个batch是不是要丢掉,当这个batch样本数少于batch_size时,
- 比如batch_size = 3,最后一个batch只有2个样本。默认是不丢掉
- padded_batch是非常见的一个操作,比如对一个变长序列,通过padding操作将每个序列补成一样的长度。
- 特点:
- 1)padded_shapes使用默认值或者设置为-1,那么每个batch padding后每个维度就是跟这个者个batch的样本各个维度最大值保持一致
- 2)当shape固定为特定的size时,那么每个batch的shape就是一样的。
- '''
- #导入时,评论的文本是整数编码的(每个整数代表词汇表中的特定单词或单词部分)。
- #请注意尾随零,因为批次会填充为最长的示例。
- #train_batch, train_labels = next(iter(train_batches))
- #train_batch.numpy()
- '''
- array([[5739, 46, 674, ..., 0, 0, 0],
- [ 274, 2732, 1289, ..., 0, 0, 0],
- [ 19, 118, 874, ..., 0, 0, 0],
- ...,
- [ 324, 12, 118, ..., 0, 0, 0],
- [ 12, 31, 165, ..., 0, 0, 0],
- [ 131, 196, 7968, ..., 0, 0, 0]])
- '''
-
-
- #4 创建一个简单模型
- '''
- 使用 Keras 序列式 API 定义模型。在这种情况下,它是一个“连续词袋”样式的模型。
- 小心:此模型不使用遮盖,而是使用零填充作为输入的一部分,因此填充长度可能会影响输出。
- '''
- embedding_dim=16
- model = keras.Sequential([
- #嵌入向量层将采用整数编码的词汇表,并查找每个单词索引的嵌入向量。在模型训练时会学习这些向量。
- #向量会向输出数组添加维度。得到的维度为:(batch, sequence, embedding)。
- layers.Embedding(encoder.vocab_size, embedding_dim),
- #接下来,通过对序列维度求平均值,GlobalAveragePooling1D 层会返回每个样本的固定长度输出向量。
- #这让模型能够以最简单的方式处理可变长度的输入。
- layers.GlobalAveragePooling1D(),
- #此固定长度输出向量通过一个包含 16 个隐藏单元的完全连接(密集)层进行流水线传输。
- layers.Dense(16, activation='relu'),
- #最后一层与单个输出节点密集连接。利用 Sigmoid 激活函数,得出此值是 0 到 1 之间的浮点数,表示评论为正面的概率(或置信度)。
- layers.Dense(1)
- ])
-
- #model.summary()
- '''
- Model: "sequential"
- _________________________________________________________________
- Layer (type) Output Shape Param #
- =================================================================
- embedding_1 (Embedding) (None, None, 16) 130960
- _________________________________________________________________
- global_average_pooling1d (Gl (None, 16) 0
- _________________________________________________________________
- dense (Dense) (None, 16) 272
- _________________________________________________________________
- dense_1 (Dense) (None, 1) 17
- =================================================================
- Total params: 131,249
- Trainable params: 131,249
- Non-trainable params: 0
- _________________________________________________________________
- '''
-
-
- #5 编译和训练模型
- model.compile(optimizer='adam',
- loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
- metrics=['accuracy'])
-
- history = model.fit(
- train_batches,
- epochs=10,
- validation_data=test_batches, validation_steps=20)
-
-
- #6 绘制训练准确率和验证准确率图
- import matplotlib.pyplot as plt
-
- history_dict = history.history
-
- acc = history_dict['accuracy']
- val_acc = history_dict['val_accuracy']
- loss=history_dict['loss']
- val_loss=history_dict['val_loss']
-
- epochs = range(1, len(acc) + 1)
-
- plt.figure(figsize=(12,9))
- plt.plot(epochs, loss, 'bo', label='Training loss')
- plt.plot(epochs, val_loss, 'b', label='Validation loss')
- plt.title('Training and validation loss')
- plt.xlabel('Epochs')
- plt.ylabel('Loss')
- plt.legend()
- plt.show()
-
- plt.figure(figsize=(12,9))
- plt.plot(epochs, acc, 'bo', label='Training acc')
- plt.plot(epochs, val_acc, 'b', label='Validation acc')
- plt.title('Training and validation accuracy')
- plt.xlabel('Epochs')
- plt.ylabel('Accuracy')
- plt.legend(loc='lower right')
- plt.ylim((0.5,1))
- plt.show()
-
- #7 检索学习的嵌入向量
- #检索在训练期间学习的单词嵌入向量。这将是一个形状为 (vocab_size, embedding-dimension) 的矩阵。
- e = model.layers[0]
- weights = e.get_weights()[0]
- #print(weights.shape) # shape: (vocab_size, embedding_dim)
- #(8185, 16)
- #将权重写入磁盘。要使用 Embedding Projector,我们将以制表符分隔的格式上传两个文件:一个向量文件(包含嵌入向量)和一个元数据文件(包含单词)。
- import io
- encoder = info.features['text'].encoder
- out_v = io.open('vecs.tsv', 'w', encoding='utf-8')
- out_m = io.open('meta.tsv', 'w', encoding='utf-8')
- for num, word in enumerate(encoder.subwords):
- vec = weights[num+1] # skip 0, it's padding.
- out_m.write(word + "\n")
- out_v.write('\t'.join([str(x) for x in vec]) + "\n")
- out_v.close()
- out_m.close()
-
-
- #8 可视化嵌入向量
- '''
- 为了可视化嵌入向量,我们将它们上传到 Embedding Projector。
- 打开 Embedding Projector:http://projector.tensorflow.org/(也可以在本地 TensorBoard 实例中运行)。
- 点击“Load data”。
- 上传我们在上面创建的两个文件:vecs.tsv 和 meta.tsv。
- 将显示已训练的嵌入向量。可以搜索单词以查找其最邻近。例如,尝试搜索“beautiful”,可能会看到“wonderful”等相邻单词。
- 注:结果可能会略有不同,具体取决于训练嵌入向量层之前如何随机初始化权重。
- 注:可以试验性地使用更简单的模型来生成更多可解释的嵌入向量。尝试删除 Dense(16) 层,重新训练模型,然后再次可视化嵌入向量。
- '''
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。