当前位置:   article > 正文

查漏补缺之(一)—— fasttext与TextCNN_fasttext textcnn

fasttext textcnn

最近查看自己的博客,发现自己居然没有 fasttext与TextCNN的相关博客,正可谓左青龙右白虎王朝马汉在中间,没有这两位怎么能行呢?午休之前安排!

但需要提前说明的是,本篇博客不深入探究Fasttext与TextCNN的细节,只是基于既有知识点进行拓展解释,以期触类旁通。

fastText

fastText的核心思想是:将整篇文档的词及n-gram向量叠加平均得到文档向量,然后使用文档向量做softmax多分类得到其所属的类别label。

image-20210317005310233

整个过程类似于CBOW,以下是两者的一些区别和联系:

fastTextCBOW
作用主要用于分类,也可用于词向量训练主要用于训练词向量
输入表征单个文档的多个单词及字符级n-gram特征,被embedding过目标单词的上下文,被onehot编码过
过程将一个句子所有词做平均,提取的是句子的特征,利用全部的n-gram去预测指定类别label将window_size的上下文词的向量做平均,提取的是上下文词特征,然后根据周围词预测中心词
输出目标词汇的概率分布文档对应类别的概率分布
其他有监督学习;使用层次softmax计算文档属于某个类别的概率。无监督学习;使用层次softmax计算中心词出现的概率。

字符级n-gram特征的引入以及层次Softmax是fastText中两个重要的技巧,其中字符级的n-gram特征还可以在一定程度上解决OOV的问题。fastText适用与分类类别非常大而且数据集足够多的情况,当分类类别比较小或者数据集比较少的话,很容易过拟合

想要了解更多可以参见fastText官网进行实践:

fastText官网

TextCNN

基于我们之前对CNN的理解,再来理解TextCNN就很容易了,如果CNN忘了可以回顾:

CNN学习笔记——CNN是怎么做到图像识别的?

TextCNN是CNN在文本处理上的应用,可更好地捕捉局部相关性,一张图进行说明:

image-20210317011316608

或者想了解更多可以看原论文:

Convolutional Neural Networks for Sentence Classification

常用选型技巧

  • Fasttext(垃圾邮件/主题分类) 特别简单的任务,要求速度
  • TextCNN(主题分类/领域识别) 比较简单的任务,类别可能比较多,要求速度
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/348851
推荐阅读
相关标签
  

闽ICP备14008679号