当前位置:   article > 正文

nlp自然语言处理面试题_自然语言处理 期末试卷

自然语言处理 期末试卷

1、word2vec的原理

word2vec是一个把词语转化为对应向量的形式。word2vec中建模并不是最终的目的,其目的是获取建模的参数,这个过程称为fake task。

有两种实现方法:连续词袋模型CBOW和skip-gram

 

连续词袋模型CBOW

在上下文已知的条件下计算当前单词出现的概率,最大化这个概率

公式:\large P=\prod p(wt|content(wt);theta),t=0,1,2.....m,m为文本的单词数

转化为求对数的形式:\large J=\sum \log p(wt|content(wt);theta)

content(wt)是将上下文单词的综合作为输入。

 

skip-gram模型

已知当前单词,求上下文单词出现的概率,最大化这个概率

公式:

\large P=\prod \prod p(wt+j|wt;theta)

转化成求对数的形式:

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号