赞
踩
此文章翻译来自2014年nips,Neural Word Embedding as Implicit Matrix Factorization,引用量632。主要贡献是把经典skip-gram算法通过PMI,和矩阵分解联系了起来,并深入探讨了Skip-gram算法的优劣势。作者Omer Levy及Yoav Goldberg,来自Bar-Ilan University。
把Skip-gram with negative sampling模型简写为SGNS,词对
把总体目标函数展开,得到:
PMI定义为:
Shifted PPMI (SPPMI),由上一节得到:
1.SVD不需要调参,比如学习率
2.SVD在已知
1.SGNS对未观察到的数据分别处理,利用了未观察到的数据,而SVD都置零了
2.SGNS对每一对词对分别处理,频率较高的词对将得到更好的结果,而对未观察到的词对具有更好的容错性。
3.SGNS每次处理某一词对时并不需要让其他未观察到的词对值为0,不需要对词对矩阵作稀疏处理即可优化得到各自的embedding
作者提到了SVD和SGNS的一种middle-groud算法,兼具两者优点。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。