当前位置:   article > 正文

使用 Python 进行自然语言处理第 4 部分:文本表示_自然语言处理文本表示

自然语言处理文本表示

一、说明

        本文是我系列文章的第四篇,涵盖了我在 2023 年 3 月为 WomenWhoCode 数据科学跟踪活动提供的会议。早期的文章在这里:第 1 部分(涵盖 NLP 简介)、第 2 部分(涵盖 NLTK 和 SpaCy 库)、第 3 部分(涵盖文本预处理技术)

二、文本表示

  • 文本数据以字母、单词、符号、数字或所有这些的集合的形式存在。例如“印度”、“”、“Covid19”等。
  • 在将机器学习/深度学习算法应用于文本数据之前,我们必须以数字形式表示文本。单个单词和文本文档都可以转换为浮点数的向量。
  • 将标记、句子表示为数字向量的过程称为“嵌入”,这些向量的多维空间称为嵌入空间。
  • 深度神经网络架构,如递归神经网络、长短期记忆网络、转换器,需要以固定维数值向量的形式输入文本。

2.1、一些术语:

  1. 文档:文档是许多单词的集合。
  2. 词汇:词汇是文档中一组独特的单词。
  3. 令牌:令牌是离散数据的基本单元。它通常指的是一个单词或一个标点符号。
  4. 语料库:语料库是文档的集合。
  5. 上下文 :单词/标记的上下文是文档中左右两侧围绕它的单词/标记。
  6. 向量嵌入:基于向量的文本数字表示称为嵌入。例如,word2vec 或 GLoVE 是基于语料库统计的无监督方法。tensorflow 和 keras 等框架支持“嵌入层”。

2.2 文本表示形式应具有以下属性:

  1. 它应该唯一地标识一个单词(必须是双射)
  2. 应捕捉单词之间的形态、句法和语义相似性。在Eudlidean空间中,相关词应该比不相关的词更接近。
  3. 在这些表示形式上应该可以进行算术运算。
  4. 计算单词相似性和关系等任务应该很容易使用表示。
  5. 它应该很容易从单词映射到它的嵌入,反之亦然。

2.3 一些突出的文本表示技术:

  1. One-Hot 编码
  2. Bag of Words 模型 — 带有 n-gram 的 CountVectorizer 和 CountVectorizer
  3. TF-IDF模型
  4. Word2Vec 嵌入
  5. GloVe 嵌入
  6. FastText 嵌入
  7. 像 ChatGPT 和 BERT 这样的转换器使用自己的动态嵌入。

        One-Hot 编码:

        这是将文本表示为数字向量的最简单技术。每个单词都表示为 0 和 1 的唯一“One-Hot”二进制向量。对于词汇表中的每个唯一单词,向量包含一个 1,其余所有值均为 0,向量中 1 的位置唯一标识一个单词。

例:

单词 Apple、Banana、Orange 和 Mango 的 OneHot 矢量示例

  1. from sklearn.preprocessing import OneHotEncoder
  2. import nltk
  3. from nltk import word_tokenize
  4. document = "The rose is red. The violet is blue."
  5. document = document.split()
  6. tokens = [doc.split(" ") for doc in document]
  7. wordids = {token: idx for idx, token in enumerate(set(document))}
  8. tokenids = [[wordids[token] for token in toke] for toke in tokens]
  9. onehotmodel = OneHotEncoder()
  10. vectors = onehotmodel.fit_transform(tokenids)
  11. print(vectors.todense())

2.4 词袋表示:CountVectorizer

        详情请见:https://en.wikipedia.org/wiki/Bag-of-words_model

        词袋 (BoW) 是一种无序的文本表示形式,用于描述文档中单词的出现情况。它具有文档中已知单词的词汇表和已知单词存在的度量。词袋模型不包含有关文档中单词顺序或结构的任何信息。

        来自维基百科的示例:

文件1:约翰喜欢看电影。玛丽也喜欢电影。

文件2:玛丽也喜欢看足球比赛。

词汇1:“John”,“likes”,“to”,“watch”,“movies”,“Mary”,“likes”,“movies”,“too”

词汇2: “Mary”,“also”,“likes”,“to”,“watch”,“football”,“games”

BoW1 = {“John”:1,“likes”:2,“to”:1,“watch”:1,“movies”:2,“Mary”:1,“too”:1};

BoW2 = {“Mary”:1,“also”:1,“likes”:1,“to”:1,“watch”:1,“football”:1,“games”:1};

Document3 是 document1 和 document2 的并集(包含文档 1 和文档 2 中的单词)

文档3:约翰喜欢看电影。玛丽也喜欢电影。玛丽还喜欢看足球比赛。

BoW3: {“John”:1,“likes”:3,“to”:2,“watch”:2,“movies”:2,“Mary”:2,“too”:1,“also”:1,“football”:1,“games”:1}

        让我们编写一个函数来预处理文本,然后再用向量表示文本。

  1. # This process_text() function returns list of cleaned tokens of the text
  2. import numpy
  3. import re
  4. import string
  5. import unicodedata
  6. from nltk.corpus import stopwords
  7. from nltk.stem import WordNetLemmatizer
  8. stop_words = stopwords.words('english')
  9. lemmatizer = WordNetLemmatizer()
  10. def process_text(text):
  11. # Remove non-ASCII characters
  12. text = unicodedata.normalize('NFKD', text).encode('ascii', 'ignore').decode('utf-8', 'ignore')
  13. # Remove words not starting with alphabets
  14. text = re.sub(r'[^a-zA-Z\s]', '', text)
  15. # Remove punctuation marks
  16. text = text.translate(str.maketrans('', '', string.punctuation))
  17. #Convert to lower case
  18. text = text.lower()
  19. # Remove stopwords
  20. text = " ".join([word for word in str(text).split() if word not in stop_words])
  21. # Lemmatize
  22. text = " ".join([lemmatizer.lemmatize(word) for word in text.split()])
  23. return text

        接下来,我们使用 Sklearn 库中的 CountVectorizer 将预处理的文本转换为词袋表示。

  1. #https://scikit-learn.org/stable/modules/generated/sklearn.feature_extraction.text.CountVectorizer.html
  2. #https://stackoverflow.com/questions/27697766/understanding-min-df-and-max-df-in-scikit-countvectorizer
  3. from sklearn.feature_extraction.text import CountVectorizer
  4. import pandas as pd
  5. import nltk
  6. document = ["The", "rose", "is", "red", "The", "violet", "is", "blue"] #, "This is some text, just for demonstration"]
  7. processed_document = [process_text(item) for item in document]
  8. processed_document = [x for x in processed_document if x != '']
  9. print(processed_document)
  10. bow_countvect = CountVectorizer(min_df = 0., max_df = 1.)
  11. matrix = bow_countvect.fit_transform(processed_document)
  12. matrix.toarray()
  13. vocabulary = bow_countvect.get_feature_names_out()
  14. print(matrix)
  15. matrix.todense()

2.5 词袋表示:n-grams

        Simpe Bag-of-words 模型不存储有关单词顺序的信息。n-gram 模型可以存储此空间信息。

        单词/标记称为“克”。n-gram 是出现在文本文档中的一组连续的 n 标记。
unigram 表示 1 个单词,bigrams 表示两个单词,trigram 表示一组 3 个单词......

例如,对于文本(来自维基百科):

        文件1:约翰喜欢看电影。玛丽也喜欢电影。

        二元模型会将文本解析为以下单位,并像在简单的 BoW 模型中一样存储每个单位的术语频率。

        [“约翰喜欢”, “喜欢”, “看”, “看电影”, “玛丽喜欢”, “喜欢电影”, “电影也”,]

        词袋模型可以看作是 n-gram 模型的一个特例,其中 n=1

  1. #https://scikit-learn.org/stable/modules/generated/sklearn.feature_extraction.text.CountVectorizer.html
  2. from sklearn.feature_extraction.text import CountVectorizer
  3. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  4. ngram_countvect = CountVectorizer(ngram_range = (2, 2), stop_words = 'english')
  5. #ngram_range paramenter to count vectorizer indicates the lower and upper boundary of the range of n-values for
  6. #different word n-grams or char n-grams to be extracted. All values of n such such that min_n <= n <= max_n will be used.
  7. #For example an ngram_range of (1, 1) means only unigrams, (1, 2) means unigrams and bigrams, and (2, 2) means only bigrams.
  8. matrix = ngram_countvect.fit_transform(document)
  9. vocabulary = ngram_countvect.get_feature_names_out()
  10. matrix.todense()

三、Tf-IDF 矢量化器 : 术语频率 — 反向文档频率

可以在此处找到对 TF-IDF 矢量化器的非常好的解释

  • Tf-Idf 分数,即文档“d”中术语/单词“w”的 tfidf(w,D),是两个指标的乘积——术语频率 (tf) 和逆文档频率 (idf)。即 tfidf(w, d, C) = tf(w,d)*idf(w,d,C)
  • 其中 w 是术语或单词,d 是文档,C 是包含包括文档 d 在内的总共 N 个文档的语料库。
  • 术语频率 tf(w,d) 是文档 d 中单词 w 的频率。术语频率可以根据文档的长度进行调整(出现次数的原始计数除以文档中的字数),它可以是对数缩放频率(e.g. log(1 + 原始计数)),也可以是布尔频率(例如,如果术语在文档中出现,则为 1,如果术语未出现,则为 0)。
  • 文档频率:是一组 N 个文档(语料库)中一个术语/单词 w 的出现频率。逆文档频率是衡量一个词在语料库中常见或稀有程度的指标。IDF 较少,这个词更常见,反之亦然。单词的 IDF 是通过将语料库中的文档总数除以包含单词的文档数量的对数来计算的。逆文档频率是衡量术语/单词信息量的指标。经常出现的单词信息量较少。一个单词的反向文档频率是在一组文档(语料库)中计算的。
  1. from sklearn.feature_extraction.text import TfidfVectorizer
  2. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  3. tf_idf = TfidfVectorizer(min_df = 0., max_df = 1., use_idf = True)
  4. tf_idf_matrix = tf_idf.fit_transform(document)
  5. tf_idf_matrix = tf_idf_matrix.toarray()
  6. tf_idf_matrix

3.1 词嵌入

        上述文本表示方法通常不能捕捉到单词的语义和上下文。为了克服这些限制,我们使用 Embeddings。嵌入是通过训练大型数据集的模型来学习的。这些嵌入通过考虑句子中的相邻单词和句子中单词的顺序来捕获单词的上下文。三个突出的词嵌入是:Word2Vec、GloVe、FastText

Word2Vec

  • 是在大型文本语料库上训练的无监督模型。它创建了单词词汇表和表示词汇表的向量空间中单词的分布式和连续密集向量表示。它捕获上下文和语义的相似性。
  • 我们可以指定单词嵌入向量的大小。向量的总数基本上是词汇表的大小。
  • Word2Vec 中有两种不同的模型架构类型——CBOW(连续词袋)模型、Skip Gram 模型

CBOW 模型 — 尝试根据源上下文词预测当前目标词。Skip Gram 模型尝试预测给定目标词的源上下文词。

  1. from gensim.models import word2vec
  2. import nltk
  3. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  4. tokenized_corpus = [nltk.word_tokenize(doc) for doc in document]
  5. #parameters of word2vec model
  6. # feature_size : integer : Word vector dimensionality
  7. # window_context : integer : The maximum distance between the current and predicted word within a sentence.(2, 10)
  8. # min_word_count : integer : Ignores all words with total absolute frequency lower than this - (2, 100)
  9. # sample : integer : The threshold for configuring which higher-frequency words are randomly downsampled. Highly influencial. - (0, 1e-5)
  10. # sg: integer: Skip-gram model configuration, CBOW by default
  11. wordtovector = word2vec.Word2Vec(tokenized_corpus, window = 3, min_count = 1, sg = 1)
  12. print('Embedding of the word blue')
  13. print(wordtovector.wv['blue'])
  14. print('Size of Embedding of the word blue')
  15. print(wordtovector.wv['blue'].shape)

如果您希望在词汇表中查看所有向量,请使用以下代码:

  1. #All the vectors for all the words in our input text
  2. words = wordtovector.wv.index_to_key
  3. wvs = wordtovector.wv[words]
  4. wvs

或者将它们转换为 pandas 数据帧

  1. import pandas as pd
  2. df = pd.DataFrame(wvs, index = words)
  3. df

3.2 GloVe

  • 全局向量 (GloVe) 是一种为 Word2Vec 等单词生成密集向量表示的技术。它首先创建一个由(词、语境)对组成的巨大的词语共现矩阵。此矩阵中的每个元素都表示上下文中单词的频率。矩阵分解技术可用于近似该矩阵。由于 Glove 是在 globar 词-词共现矩阵上训练的,它使我们能够拥有一个具有有意义的子结构的向量空间。
  • Spacy 库支持 GloVe 嵌入。为了使用英语语言嵌入,我们需要下载管道“en_core_web_lg”,即大型英语语言管道。我们使用 SpaCy 获得标准的 300 维 GloVe 词向量。
  1. import spacy
  2. import nltk
  3. nlp = spacy.load('en_core_web_lg')
  4. total_vectors = len(nlp.vocab.vectors)
  5. print('Total word vectors:', total_vectors)
  6. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  7. tokenized_corpus = [nltk.word_tokenize(doc) for doc in document]
  8. vocab = list(set([word for wordlist in tokenized_corpus for word in wordlist]))
  9. glovevectors = np.array([nlp(word).vector for word in vocab])#Spacy's nlp pipeline has the vectors for these words
  10. glove_vec_df = pd.DataFrame(glovevectors, index=vocab)
  11. glove_vec_df

如果您希望看到单词“violet”的手套向量,请使用代码

glove_vec_df.loc['violet']

想查看词汇的所有向量吗?

glovevectors

使用TSNE可视化数据点

  1. from sklearn.manifold import TSNE
  2. import matplotlib.pyplot as plt
  3. tsne = TSNE(n_components = 2, random_state = 42, n_iter = 250, perplexity = 3)
  4. tsneglovemodel = tsne.fit_transform(glovevectors)
  5. labels = vocab
  6. plt.figure(figsize=(12, 6))
  7. plt.scatter(tsneglovemodel[:, 0], tsneglovemodel[:, 1], c='red', edgecolors='r')
  8. for label, x, y in zip(labels, tsneglovemodel[:, 0], tsneglovemodel[:, 1]):
  9. plt.annotate(label, xy=(x+1, y+1), xytext=(0, 0), textcoords='offset points')

3.3 快速文本

        FastText 在 Wikipedia 和 Common Crawl 上进行了训练。它包含在维基百科和爬行上训练的 157 种语言的词向量。它还包含用于语言识别和各种监督任务的模型。您可以在 gensim 库中试验 FastText 向量。

  1. import warnings
  2. warnings.filterwarnings("ignore")
  3. from gensim.models.fasttext import FastText
  4. import nltk
  5. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  6. tokenized_corpus = [nltk.word_tokenize(doc) for doc in document]
  7. fasttext_model = FastText(tokenized_corpus, window = 5, min_count = 1, sg = 1)
  1. import warnings
  2. warnings.filterwarnings("ignore")
  3. from gensim.models.fasttext import FastText
  4. import nltk
  5. document = ["The rose is red.", "The violet is blue.", "This is some text, just for demonstration"]
  6. tokenized_corpus = [nltk.word_tokenize(doc) for doc in document]
  7. fasttext_model = FastText(tokenized_corpus, window = 5, min_count = 1, sg = 1)
  8. print('Embedding')
  9. print(fasttext_model.wv['blue'])
  10. print('Embedding Shape')
  11. print(fasttext_model.wv['blue'].shape)

要查看词汇表中单词的向量,可以使用以下代码

  1. words_fasttext = fasttext_model.wv.index_to_key
  2. wordvectors_fasttext = fasttext_model.wv[words]
  3. wordvectors_fasttext

在本系列的下一篇文章中,我们将介绍文本分类。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/567135
推荐阅读
相关标签
  

闽ICP备14008679号