赞
踩
word2vec是一个浅层神经网络模型,用于将单词转换为向量,该模型主要有两种类型:
1. CBOW 连续词袋模型
2. skip-gram 跳字模型
CBOW和skip-gram的目标都是迭代出词向量字典(嵌入矩阵)。
CBOW神经网络会接收上下文词语,将上下文词语转换为最有可能的目标词。
假设我们有一个句子:
We are about to study the idea of deep learning.
我们能否用上面画线句子来表示出study呢?
这时,我们需要一个大小为n的窗口。
具体一些:
对于上下文中输入的其中一个词进行分析:
skip-gram是用目标词来预测上下文。
假设我们有一个句子:
We are about to study the idea of deep learning.
我们能否用study来预测上下问呢?
我们有一个大小为n的窗口。
使用一个词来预测另外一个词,尽量使这两个词的词向量接近,在skip-gram迭代的过程中,不断调整词向量:
1. 让目标词与上下文的词向量尽可能地接近。
2. 让目标此与非上下文的词向量尽可能地远离。
判断两个词向量是否接近使用向量的点积
A
=
(
a
1
,
a
2
,
.
.
.
,
a
n
)
A = (a_1, a_2, ..., a_n)
A=(a1,a2,...,an)
B
=
(
b
1
,
b
2
,
.
.
.
.
,
b
n
)
B = (b_1, b_2, ...., b_n)
B=(b1,b2,....,bn)
A
⋅
B
=
a
1
⋅
b
1
+
.
.
.
.
.
.
+
a
n
⋅
b
n
A \cdot B= a_1 \cdot b_1 + ......+ a_n \cdot b_n
A⋅B=a1⋅b1+......+an⋅bn
向量的点积衡量了向量在同一方向上的强度,点积越大,两个向量越相似,它们对应的语义也就越相似。
in_embedding作为skip-gram模型的输出,得到的结果是,每一个词语到达目标词语的概率。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。