赞
踩
对了宝贝儿们,卑微小李的公众号【野指针小李】已开通,期待与你一起探讨学术哟~摸摸大!
如果有需要Hierarchical Softmax或Negative Sampling公式推导的同学可以移步:Word2Vec之Hierarchical Softmax与Negative Sampling。
如果有需要Word2Vec的代码实现(TensorFlow版本)可以移步:TensorFlow学习笔记(3)——TensorFlow实现Word2Vec。
嗯,为了方便大家找到参考资料,我这里重新贴在最下面:
[1]皮果提.word2vec中的数学原理详解(二)预备知识[EB/OL]. (2014-07-19)[2021-04-25]. https://blog.csdn.net/itplus/article/details/37969635
[2]皮果提.word2vec中的数学原理详解(三)背景知识[EB/OL]. (2014-07-19)[2021-04-25]. https://blog.csdn.net/itplus/article/details/37969817
[3]宗成庆.统计自然语言处理[M].第二版.北京:清华大学出版社,2013:83-128.
[4]野指针小李.概率论与数理统计学习笔记(5)——极大似然估计[EB/OL]. (2021-04-20)[2021-04-25]. https://blog.csdn.net/qq_35357274/article/details/115893093
[5]Rong Xin. word2vec Parameter Learning Explained[J]. CoRR, abs/1411.2738, 2014.
[6]AINLP.【语言模型系列】原理篇一:从one-hot到Word2Vec[EB/OL].(2020-08-14)[2021-04-25].https://mp.weixin.qq.com/s/JueP4ADiNQ4dghLVj360Lw
[7]穆文.[NLP] 秒懂词向量Word2vec的本质[EB/OL].(2019-05-24)[2021-04-25]. https://zhuanlan.zhihu.com/p/26306795
[8]Tomas Mikolov, Kai Chen, Greg Corrado, et al. Efficient Estimation of Word Representations in Vector Space[C]//ICLR (Workshop Poster), 2013.
[9]码农场. word2vec原理推导与代码分析[EB/OL]. (2016-07-21)[2021-04-25]. https://www.hankcs.com/nlp/word2vec.html
[10]你好怕大雨吗.通俗理解word2vec[EB/OL].(2019-12-16)[2021-04-27].https://www.jianshu.com/p/471d9bfbd72f
[11]益达.Embedding之word2vec[EB/OL].(2019-10-08)[2021-04-27].https://zhuanlan.zhihu.com/p/59396559
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。