赞
踩
活动地址:[CSDN21天学习挑战赛](https://marketing.csdn.net/p/bdabfb52c5d56532133df2adc1a728fd)
作者简介:在校大学生一枚,华为云享专家,阿里云星级博主,腾云先锋(TDP)成员,云曦智划项目总负责人,全国高等学校计算机教学与产业实践资源建设专家委员会(TIPCC)志愿者,以及编程爱好者,期待和大家一起学习,一起进步~
.
博客主页:ぃ灵彧が的学习日志
.
本文专栏:人工智能
.
专栏寄语:若你决定灿烂,山无遮,海无拦
.
在自然语言处理任务中,词向量是表示自然语言里单词的一种方法,即把每个词都表示为一个N维空间内的点,即一个高维空间内的向量。通过这种方法,实现把自然语言计算转换为向量计算。
如 图1 所示的词向量计算任务中,先把每个词(如queen,king等)转换成一个高维空间的向量,这些向量在一定意义上可以代表这个词的语义信息。再通过计算这些向量之间的距离,就可以计算出词语之间的关联关系,从而达到让计算机像计算数值一样去计算自然语言的目的。
word2vec包含两个经典模型,CBOW(Continuous Bag-of-Words)和Skip-gram,如 图2 所示。
我们以这句话:“Pineapples are spiked and yellow”为例介绍CBOW算法实现。
如 图3 所示,CBOW是一个具有3层结构的神经网络,分别是:
在实际中,为避免过于庞大的计算量,我们通常采用负采样的方法,来避免查询整个此表,从而将多分类问题转换为二分类问题。具体实现过程如图4:
在实现的过程中,通常会让模型接收3个tensor输入:
代表上下文单词的tensor:假设我们称之为context_words V V V,一般来说,这个tensor是一个形状为[batch_size, vocab_size]的one-hot tensor,表示在一个mini-batch中每个中心词具体的ID。
代表目标词的tensor:假设我们称之为target_words T T T,一般来说,这个tensor同样是一个形状为[batch_size, vocab_size]的one-hot tensor,表示在一个mini-batch中每个目标词具体的ID。
代表目标词标签的tensor:假设我们称之为labels L L L,一般来说,这个tensor是一个形状为[batch_size, 1]的tensor,每个元素不是0就是1(0:负样本,1:正样本)。
接下来我们将学习使用飞桨实现CBOW模型的方法。在飞桨中,不同深度学习模型的训练过程基本一致,流程如下:
数据处理:选择需要使用的数据,并做好必要的预处理工作。
网络定义:使用飞桨定义好网络结构,包括输入层,中间层,输出层,损失函数和优化算法。
网络训练:将准备好的数据送入神经网络进行学习,并观察学习的过程是否正常,如损失函数值是否在降低,也可以打印一些中间步骤的结果出来等。
网络评估:使用测试集合测试训练好的神经网络,看看训练效果如何。
在数据处理前,需要先加载飞桨平台(如果用户在本地使用,请确保已经安装飞桨)。
首先,找到一个合适的语料用于训练word2vec模型。我们选择text8数据集,这个数据集里包含了大量从维基百科收集到的英文语料,我们可以通过如下代码下载数据集,下载后的文件被保存在当前目录的text8.txt文件内。
import io
import os
import sys
import requests
from collections import OrderedDict
import math
import random
import numpy as np
import paddle
#下载语料用来训练word2vec
def download():
#可以从百度云服务器下载一些开源数据集(dataset.bj.bcebos.com)
corpus_url = "https://dataset.bj.bcebos.com/word2vec/text8.txt"
#使用python的requests包下载数据集到本地
web_request = requests.get(corpus_url)
corpus = web_request.content
#把下载后的文件存储在当前目录的text8.txt文件内
with open("./text8.txt", "wb") as f:
f.write(corpus)
f.close()
download()
#读取text8数据
def load_text8():
with open("./text8.txt", "r") as f:
corpus = f.read().strip("\n")
f.close()
return corpus
corpus = load_text8()
#打印前500个字符,简要看一下这个语料的样子
print(corpus[:500])
输出结果如下图5所示:
#对语料进行预处理(分词)
def data_preprocess(corpus):
#由于英文单词出现在句首的时候经常要大写,所以我们把所有英文字符都转换为小写,
#以便对语料进行归一化处理(Apple vs apple等)
corpus = corpus.strip().lower()
corpus = corpus.split(" ")
return corpus
corpus = data_preprocess(corpus)
print(corpus[:50])
输出结果如下图6所示:
#构造词典,统计每个词的频率,并根据频率将每个词转换为一个整数id def build_dict(corpus): #首先统计每个不同词的频率(出现的次数),使用一个词典记录 word_freq_dict = dict() for word in corpus: if word not in word_freq_dict: word_freq_dict[word] = 0 word_freq_dict[word] += 1 #将这个词典中的词,按照出现次数排序,出现次数越高,排序越靠前 #一般来说,出现频率高的高频词往往是:I,the,you这种代词,而出现频率低的词,往往是一些名词,如:nlp word_freq_dict = sorted(word_freq_dict.items(), key = lambda x:x[1], reverse = True) #构造3个不同的词典,分别存储, #每个词到id的映射关系:word2id_dict #每个id出现的频率:word2id_freq #每个id到词典映射关系:id2word_dict word2id_dict = dict() word2id_freq = dict() id2word_dict = dict() #按照频率,从高到低,开始遍历每个单词,并为这个单词构造一个独一无二的id for word, freq in word_freq_dict: curr_id = len(word2id_dict) word2id_dict[word] = curr_id word2id_freq[word2id_dict[word]] = freq id2word_dict[curr_id] = word return word2id_freq, word2id_dict, id2word_dict word2id_freq, word2id_dict, id2word_dict = build_dict(corpus) vocab_size = len(word2id_freq) print("there are totoally %d different words in the corpus" % vocab_size) for _, (word, word_id) in zip(range(50), word2id_dict.items()): print("word %s, its id %d, its word freq %d" % (word, word_id, word2id_freq[word_id]))
#把语料转换为id序列
def convert_corpus_to_id(corpus, word2id_dict):
#使用一个循环,将语料中的每个词替换成对应的id,以便于神经网络进行处理
corpus = [word2id_dict[word] for word in corpus]
return corpus
corpus = convert_corpus_to_id(corpus, word2id_dict)
print("%d tokens in the corpus" % len(corpus))
print(corpus[:50])
#使用二次采样算法(subsampling)处理语料,强化训练效果
def subsampling(corpus, word2id_freq):
#这个discard函数决定了一个词会不会被替换,这个函数是具有随机性的,每次调用结果不同
#如果一个词的频率很大,那么它被遗弃的概率就很大
def discard(word_id):
return random.uniform(0, 1) < 1 - math.sqrt(
1e-4 / word2id_freq[word_id] * len(corpus))
corpus = [word for word in corpus if not discard(word)]
return corpus
corpus = subsampling(corpus, word2id_freq)
print("%d tokens in the corpus" % len(corpus))
print(corpus[:50])
在完成语料数据预处理之后,需要构造训练数据。根据上面的描述,我们需要使用一个滑动窗口对语料从左到右扫描,在每个窗口内,中心词需要预测它的上下文,并形成训练数据。
在实际操作中,由于词表往往很大(50000,100000等),对大词表的一些矩阵运算(如softmax)需要消耗巨大的资源,因此可以通过负采样的方式模拟softmax的结果,代码实现如下。
#构造数据,准备模型训练 #max_window_size代表了最大的window_size的大小,程序会根据max_window_size从左到右扫描整个语料 #negative_sample_num代表了对于每个正样本,我们需要随机采样多少负样本用于训练, #一般来说,negative_sample_num的值越大,训练效果越稳定,但是训练速度越慢。 def build_data(corpus, word2id_dict, word2id_freq, max_window_size = 3, negative_sample_num = 4): #使用一个list存储处理好的数据 dataset = [] center_word_idx=0 #从左到右,开始枚举每个中心点的位置 while center_word_idx < len(corpus): #以max_window_size为上限,随机采样一个window_size,这样会使得训练更加稳定 window_size = random.randint(1, max_window_size) #当前的中心词就是center_word_idx所指向的词,可以当作正样本 positive_word = corpus[center_word_idx] #以当前中心词为中心,左右两侧在window_size内的词就是上下文 context_word_range = (max(0, center_word_idx - window_size), min(len(corpus) - 1, center_word_idx + window_size)) context_word_candidates = [corpus[idx] for idx in range(context_word_range[0], context_word_range[1]+1) if idx != center_word_idx] #对于每个正样本来说,随机采样negative_sample_num个负样本,用于训练 for context_word in context_word_candidates: #首先把(上下文,正样本,label=1)的三元组数据放入dataset中, #这里label=1表示这个样本是个正样本 dataset.append((positive_word, context_word, 1)) #开始负采样 i = 0 while i < negative_sample_num: negative_word_candidate = random.randint(0, vocab_size-1) if negative_word_candidate is not context_word: #把(上下文,负样本,label=0)的三元组数据放入dataset中, #这里label=0表示这个样本是个负样本 dataset.append((positive_word, negative_word_candidate, 0)) i += 1 center_word_idx = min(len(corpus) - 1, center_word_idx + window_size) if center_word_idx == (len(corpus) - 1): center_word_idx += 1 if center_word_idx % 100000 == 0: print(center_word_idx) return dataset dataset = build_data(corpus, word2id_dict, word2id_freq) for _, (context_word, target_word, label) in zip(range(50), dataset): print("center_word %s, target %s, label %d" % (id2word_dict[context_word], id2word_dict[target_word], label))
#构造mini-batch,准备对模型进行训练 #我们将不同类型的数据放到不同的tensor里,便于神经网络进行处理 #并通过numpy的array函数,构造出不同的tensor来,并把这些tensor送入神经网络中进行训练 def build_batch(dataset, batch_size, epoch_num): #center_word_batch缓存batch_size个中心词 center_word_batch = [] #target_word_batch缓存batch_size个目标词(可以是正样本或者负样本) target_word_batch = [] #label_batch缓存了batch_size个0或1的标签,用于模型训练 label_batch = [] for epoch in range(epoch_num): #每次开启一个新epoch之前,都对数据进行一次随机打乱,提高训练效果 random.shuffle(dataset) for center_word, target_word, label in dataset: #遍历dataset中的每个样本,并将这些数据送到不同的tensor里 center_word_batch.append([center_word]) target_word_batch.append([target_word]) label_batch.append(label) #当样本积攒到一个batch_size后,我们把数据都返回回来 #在这里我们使用numpy的array函数把list封装成tensor #并使用python的迭代器机制,将数据yield出来 #使用迭代器的好处是可以节省内存 if len(center_word_batch) == batch_size: yield np.array(center_word_batch).astype("int64"), \ np.array(target_word_batch).astype("int64"), \ np.array(label_batch).astype("float32") center_word_batch = [] target_word_batch = [] label_batch = [] if len(center_word_batch) > 0: yield np.array(center_word_batch).astype("int64"), \ np.array(target_word_batch).astype("int64"), \ np.array(label_batch).astype("float32") # for _, batch in zip(range(10), build_batch(dataset, 128, 3)): # print(batch)
定义cbow的网络结构,用于模型训练。在飞桨动态图中,对于任意网络,都需要定义一个继承自paddle.nn.Layer的类来搭建网络结构、参数等数据的声明。同时需要在forward函数中定义网络的计算逻辑。值得注意的是,我们仅需要定义网络的前向计算逻辑,飞桨会自动完成神经网络的反向计算。代码如下:
#定义cbow训练网络结构 #这里我们使用的是paddlepaddle的2.0.0版本 #一般来说,在使用nn训练的时候,我们需要通过一个类来定义网络结构,这个类继承了paddle.nn.Layer class CBOW(paddle.nn.Layer): def __init__(self, vocab_size, embedding_size, init_scale=0.1): #vocab_size定义了这个CBOW这个模型的词表大小 #embedding_size定义了词向量的维度是多少 #init_scale定义了词向量初始化的范围,一般来说,比较小的初始化范围有助于模型训练 super(CBOW, self).__init__() self.vocab_size = vocab_size self.embedding_size = embedding_size #使用paddle.nn提供的Embedding函数,构造一个词向量参数 #这个参数的大小为:self.vocab_size, self.embedding_size #这个参数的名称为:embedding_para #这个参数的初始化方式为在[-init_scale, init_scale]区间进行均匀采样 self.embedding = paddle.nn.Embedding( self.vocab_size, self.embedding_size, weight_attr=paddle.ParamAttr( name='embedding_para', initializer=paddle.nn.initializer.Uniform( low=-0.5/embedding_size, high=0.5/embedding_size))) #使用paddle.nn提供的Embedding函数,构造另外一个词向量参数 #这个参数的大小为:self.vocab_size, self.embedding_size #这个参数的名称为:embedding_para_out #这个参数的初始化方式为在[-init_scale, init_scale]区间进行均匀采样 #跟上面不同的是,这个参数的名称跟上面不同,因此, #embedding_para_out和embedding_para虽然有相同的shape,但是权重不共享 self.embedding_out = paddle.nn.Embedding( self.vocab_size, self.embedding_size, weight_attr=paddle.ParamAttr( name='embedding_out_para', initializer=paddle.nn.initializer.Uniform( low=-0.5/embedding_size, high=0.5/embedding_size))) #定义网络的前向计算逻辑 #center_words是一个tensor(mini-batch),表示中心词 #target_words是一个tensor(mini-batch),表示目标词 #label是一个tensor(mini-batch),表示这个词是正样本还是负样本(用0或1表示) #用于在训练中计算这个tensor中对应词的同义词,用于观察模型的训练效果 def forward(self, center_words, target_words, label): #首先,通过embedding_para(self.embedding)参数,将mini-batch中的词转换为词向量 #这里center_words和eval_words_emb查询的是一个相同的参数 #而target_words_emb查询的是另一个参数 center_words_emb = self.embedding(center_words) target_words_emb = self.embedding_out(target_words) #center_words_emb = [batch_size, embedding_size] #target_words_emb = [batch_size, embedding_size] #我们通过点乘的方式计算中心词到目标词的输出概率,并通过sigmoid函数估计这个词是正样本还是负样本的概率。 word_sim = paddle.multiply(center_words_emb, target_words_emb) word_sim = paddle.sum(word_sim, axis = -1) word_sim = paddle.reshape(word_sim, shape=[-1]) pred = paddle.nn.functional.sigmoid(word_sim) #通过估计的输出概率定义损失函数,注意我们使用的是binary_cross_entropy函数 #将sigmoid计算和cross entropy合并成一步计算可以更好的优化,所以输入的是word_sim,而不是pred loss = paddle.nn.functional.binary_cross_entropy(paddle.nn.functional.sigmoid(word_sim), label) loss = paddle.mean(loss) #返回前向计算的结果,飞桨会通过backward函数自动计算出反向结果。 return pred, loss
训练过程和词相似性展示部分输出结果分别如下图7、8所示:
从打印结果可以看到,经过一定步骤的训练,Loss逐渐下降并趋于稳定。
#定义一个使用word-embedding计算cos的函数
def get_cos(query1_token, query2_token, embed):
W = embed
x = W[word2id_dict[query1_token]]
y = W[word2id_dict[query2_token]]
cos = np.dot(x, y) / np.sqrt(np.sum(y * y) * np.sum(x * x) + 1e-9)
flat = cos.flatten()
print("单词1 %s 和单词2 %s 的cos结果为 %f" %(query1_token, query2_token, cos) )
embedding_matrix = np.load('embedding.npy')
get_cos("king","queen",embedding_matrix)
get_cos("she","her",embedding_matrix)
get_cos("topic","theme",embedding_matrix)
get_cos("woman","game",embedding_matrix)
get_cos("one","name",embedding_matrix)
输出结果如下图9所示:
本系列文章内容为根据清华社出版的《机器学习实践》所作的相关笔记和感悟,其中代码均为基于百度飞桨开发,若有任何侵权和不妥之处,请私信于我,定积极配合处理,看到必回!!!
最后,引用本次活动的一句话,来作为文章的结语~( ̄▽ ̄~)~:
【学习的最大理由是想摆脱平庸,早一天就多一份人生的精彩;迟一天就多一天平庸的困扰。】
ps:更多精彩内容还请进入本文专栏:人工智能,进行查看,欢迎大家支持与指教啊~( ̄▽ ̄~)~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。