赞
踩
在自然语言处理(NLP)领域,词嵌入是一种将词语转换为数值形式的方法,使计算机能够理解和处理语言数据。
词嵌入word embedding也叫文本向量化/文本表征。
本文将介绍几种流行的传统词嵌入方法。
one-hot encoding
将每个词表示为一维向量
bag of word (BoW)
词袋模型是最简单的文本表示法之一。它将文本转换为一个长向量,这个向量的每一个元素代表词汇表中的一个词,并记录该词在文本中出现的次数。
sklearn的实现:
from sklearn.feature_extraction.text import CountVectorizer
corpus #由字符串组成的列表
vector = CountVectorizer().fit(corpus)
train_vector = vector.transform(corpus)
term frequency-inverse document frequency
TF-IDF是一种用于信息检索和文本挖掘的常用加权技术。它评估一个词对于一个文档集或一个语料库中的其中一份文档的重要程度。
TF (Term Frequency)中文含义是词频,IDF (Inverse Document Frequency)中文含义是逆文本频率指数。
TF统计的是词语在特定文档中出现的频率,而IDF统计的是词语在其他文章中出现的频率,其处理基本逻辑是词语的重要性随着其在特定文档中出现的次数呈现递增趋势,但同时会随着其在语料库中其他文档中出现的频率递减下降(考虑到有些常用词在所有文档里面都很常见)。
数学表达式如下:
TF-IDF
(
w
,
d
)
=
TF
(
w
,
d
)
×
IDF
(
w
)
\text{TF-IDF}(w,d)=\text{TF}(w,d)\times \text{IDF}(w)
TF-IDF(w,d)=TF(w,d)×IDF(w)
sklearn的实现:
from sklearn.feature_extraction.text import TfidfVectorizer
tfidf=TfidfVectorizer(max_features=500)
corpus #由字符串组成的列表
sp_tfidf=tfidf.fit_transform(corpus) #返回稀疏矩阵,每一行是语料中对应文档的表示向量
Word2Vec是一种预测模型,用于产生词嵌入。它有两种结构:连续词袋(CBOW)和跳字模型(Skip-Gram)。
原始论文:
Distributed Representations of Sentences and Documents:提出word2vec框架
Efficient Estimation of Word Representations in Vector Space:介绍训练trick:hierarchical softmax 和 negative sampling
用一个词语作为输入,来预测它周围的上下文
训练思路:用独热编码表示词语。输入这个词语的独热编码,转换为隐藏层编码,输出上下文的独热编码
Continues Bag of Words
拿一个词语的上下文作为输入,来预测这个词语本身
LSA使用奇异值分解(SVD)技术来减少特征空间的维数,并捕捉词之间的隐含关系。
原论文:(2014 EMNLP) GloVe: Global Vectors for Word Representation
GloVe结合了矩阵分解和局部上下文窗口的优点。它通过词与词共现的概率信息来生成词向量。
原论文:(2017) Learned in Translation: Contextualized Word Vectors
早期LM的感觉
CoVe是一种基于上下文的词嵌入方法,它利用序列到序列的模型从大量翻译数据中学习词向量。
以上就是几种传统的词嵌入方法的简介。每种方法都有其独特之处,选择适合的词嵌入技术可以极大地提升自然语言处理任务的性能。希望这篇文章能帮助你更好地理解不同的词嵌入方法,为你的NLP项目选择合适的技术。
参考资料:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。