赞
踩
本文对Embedding和word embedding作一个简要的介绍。
Embedding是从离散对象(例如字词)到实数向量的映射。 这些向量中的各个维度通常没有固定含义,机器学习所利用的是向量的位置和相互之间的距离这些整体模式。
Embedding多是作为一种工具来使用的,应用十分广泛。最常见的如机器学习中的分类聚类,以及推荐系统中的应用等。
以下是一些常见的Embedding的方法:
Word Embedding即词嵌入,词嵌入是自然语言处理中语言模型与表征学习技术的统称。概念上而言,它是把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。word embedding在自然语言处理中的应用十分广泛,以下是其中一些较为常见的方法。
以上仅为一些代表性的方法,可能还有未列举出来的。
[1] https://www.zhihu.com/question/32275069
[2] https://www.tensorflow.org/guide/embedding
[3] https://en.wikipedia.org/wiki/Embedding
[4] https://developers.google.com/machine-learning/crash-course/embeddings/video-lecture
[5] https://github.com/WillKoehrsen/wikipedia-data-science
[6] https://towardsdatascience.com/neural-network-embeddings-explained-4d028e6f0526
[7] https://blog.csdn.net/itplus/article/details/37969519
[8] https://zh.wikipedia.org/wiki/词嵌入
[9] https://blog.csdn.net/baimafujinji/article/details/77836142
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。