赞
踩
Word Embedding:Word2Vec(CBOW/Skip-gram)—>Glove
使用Word Embedding:句子中每个单词以Onehot形式作为输入,然后乘以学好的Word
Embedding矩阵Q,就直接取出单词对应的Word Embedding了
Word2Vec
CBOW模型的训练输入是某一个特征词的上下文(context)相关的词对应的词向量,而输出就是这特定的一个词(目标单词target)的词向量。
skip-gram模型和CBOW模型相反,目标单词现在在输入层,上下文单词在输出层
!!!无法解决词的多义问题
缺点:
Word Embedding在对bank这个单词进行编码的时候,是区分不开这两个含义的,因为它们尽管上下文环境中出现的单词不同,但是在用语言模型训练的时候,不论什
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。