赞
踩
在前面几篇文章中我们学习了 word2vec 的两种模型 CBOW 和 Skip-Gram,了解了它们的基本原理,数学思想,还有代码实现。
word2vec 有很多优点,它的概念比较容易理解,训练速度快,既适用于小数据集也适用于大数据集,在捕获语义相似性方面做得很好,而且是一种非监督式学习方法,不需要人类标记数据。
当然也有一些不足,如虽然易于开发,但难以调试;如果一个单词有多种含义,嵌入向量只能反映出它们的平均值。
今天我们来进一步学习 word2vec 的应用。
word2vec 有很多应用场景,因为它可以捕获语义相似性,因此当我们遇见涉及分布式语义的任务时,就可以用它来生成特征,输入到各种算法模型中。
这里我们将学习如何将 word2vec 用于文档分类/聚类任务中。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。