赞
踩
前言:我们常常会看见很多的概念,Word embedding,CBOW,n-gram,NNLM,RNNLM等等一系列的概念,很容易傻傻分不清楚,本文对NLP中的各种嵌入做了一个归纳,出书个人归纳,不正确地方还请指正。
一、NLP与词嵌入(Word Embedding)
1.1 离散表示(1) One-hot表示
(2)词袋模型 Bag of Word(BOW)
(3)TF-IDF
(4)n-gram模型:基于统计的统计语言模型
1.2 分布式表示
(1)共现矩阵:共现矩阵顾名思义就是共同出现的意思,词文档的共现矩阵主要用于发现主题(topic),用于主题模型,如LSA(Latent Semantic Analysis (LSA))即,潜在语义分析。
1.3 神经网络表示
(1)NNLM:经典的神经网络语言模型
(2)RNNLM:循环神经网络语言模型
(3)Word2Vec:这是最重要的,最普遍的语言模型,又分为两个类型,分别是:
CBOW:continous bag of words
Skip Gram
而且这两个方法又有基于不同的优化方法,如Negative Sampling(负采样)和Hierarchical Softmax的方法 (4)sense2vec:Word2vec的推广,着重考虑了词语的多义性
(5)GloVe模型:GloVe的全称叫Global Vectors for Word Representation,即全局向量词嵌入,它是一个基于全局词频统计(count-based & overall statistics)的词表征(word representation)工具
(6)fastText:子词嵌入。
1.4 一些非常经典的模型案例
(1)TextRNN。textRNN指的是利用RNN循环神经网络解决文本分类问题
(2)TextCNN 。textCNN指的是利用一维卷积CNN神经网络解决文本分类问题
1.5 比较高深复杂一些的模型以及机制
(1)序列到序列模型(seq2seq)
(2)注意力机制(Attention Mechanism)
(3)Transformer模型
1.6 当前成熟的语言模型
- 1. BERT
- 2. GPT
- 3. GPT-2
- 4. Transformer-XL
- 5. XLNet
- 6. XLM
- 7. RoBERTa
- 8. DistilBERT
- 不断更新中... ...
这个地方只是按照我个人的理解,概述性的说明一下我个人认为的分类,后面针对每一个类别会详细用一篇文章来说明。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。