赞
踩
BOW 和 TF-IDF 都只着重于词汇出现在文件中的次数,未考虑语言、文字有上下文的关联,针对上下文的关联,Google 研发团队提出了词向量 Word2vec,将每个单字改以上下文表达,然后转换为向量,这就是词嵌入(Word Embedding),与 TF-IDF 输出的是稀疏向量不同,词嵌入的输出是一个稠密的样本空间。
在 Gensim 中提供了 Word2Vec 的支持:gensim.models.word2vec。Word2Vec 算法包括 Skip-Gram 和 CBOW 模型,使用层次 s o f t m a x softmax
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。