赞
踩
Word2vec回顾、优化、基于统计的词向量、GloVe、词向量评价、词义
词向量目的:希望通过低维稠密向量来表示词的含义
课程中举了一个例子:三个句子,比如对于like这个词,在三个句子中,其左右共出现2次I,1次deep和1次NLP,所以like对应的词向量中,I、deep和NLP维的值分别为2,1,1。
但这些预训练模型也存在不足:
https://pdfs.semanticscholar.org/73e6/351a8fb61afc810a8bb3feaa44c41e5c5d7b.pdf
上述链接中的文章对例子中简单的计数方法进行了改进,包括去掉停用词、使用倾斜窗口、使用皮尔逊相关系数等,提出了COALS模型,该模型得到的词向量效果也不错,具有句法特征和语义特征。
GloVe的全称是GloVe: bal Vectors for Word Representation
是这门课的老师Christopher D. Manning的研究成果
GloVe目标是综合基于统计和基于预测的两种方法的优点。
模型目标:词进行向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息
流程:输入语料库–> 统计共现矩阵–> 训练词向量–>输出词向量
KaTeX parse error: No such environment: equation at position 8: \begin{̲e̲q̲u̲a̲t̲i̲o̲n̲}̲ X_{i j} \end{e…
i表示上下文单词
j表示在特定大小的上下文窗口(context window)内共同出现的次数。这个次数的最小单位是1,但是GloVe不这么认为:它根据两个单词在上下文窗口的距离dd.
提出了一个衰减函数(decreasing weighting):用于计算权重,也就是说距离越远的两个单词所占总计数(total count)的权重越小。
KaTeX parse error: No such environment: equation at position 8: \begin{̲e̲q̲u̲a̲t̲i̲o̲n̲}̲ w_{i}^{T} \til…
其中,$ w_{i}^{T} $ 和 $ \tilde{w}{j} 是 我 们 最 终 要 求 解 的 词 向 量 ; 是我们最终要求解的词向量; 是我们最终要求解的词向量; b{i} 和 和 和 \tilde{b}{j} 分 别 是 两 个 词 向 量 的 b i a s t e r m 那 它 到 底 是 怎 么 来 的 , 为 什 么 要 使 用 这 个 公 式 ? 为 什 么 要 构 造 两 个 词 向 量 分别是两个词向量的bias term 那它到底是怎么来的,为什么要使用这个公式?为什么要构造两个词向量 分别是两个词向量的biasterm那它到底是怎么来的,为什么要使用这个公式?为什么要构造两个词向量 w{i}^{T} $ 和 $ \tilde{w}_{j} $?
有了上述公式之后,我们可以构建Loss function:
J
=
∑
i
,
j
=
1
V
f
(
X
i
j
)
(
w
i
T
w
~
j
+
b
i
+
b
~
j
−
log
(
X
i
j
)
)
2
J=\sum_{i, j=1}^{V} f\left(X_{i j}\right)\left(w_{i}^{T} \tilde{w}_{j}+b_{i}+\tilde{b}_{j}-\log \left(X_{i j}\right)\right)^{2}
J=i,j=1∑Vf(Xij)(wiTw~j+bi+b~j−log(Xij))2
loss function的基本形式就是最简单的mean square loss,只不过在此基础上加了一个权重函数$ f\left(X_{i j}\right) $,那么这个函数起了什么作用,为什么要添加这个函数呢?我们知道在一个语料库中,肯定存在很多单词他们在一起出现的次数是很多的(frequent co-occurrences),那么我们希望:
为此,作者提出了以下权重函数:
f
(
x
)
=
{
(
x
/
x
max
)
α
if
x
<
x
max
1
otherwise
f(x)=\left\{
实验中作者设定
x
max
=
100
x_{\max }=100
xmax=100,并且发现
α
=
3
/
4
\alpha=3 / 4
α=3/4时效果比较好。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。