赞
踩
FastText的精髓在于将整篇文档的词及n-gram向量叠加平均得到文档向量,然后使用文档向量做softmax多分类。
上面是业界大佬们对FastText模型的高度总结,看起来是不是特别简单?然而,模型的输入到底是什么?为什么要引入n-gram向量?文档的词以及n-gram向量是怎么叠加的?为什么它训练速度快并且性能很好?这些问题一直困扰着我,今天就来深扒一下。
一、理论基础
FastText是facebook开源的一个快速文本分类器,在提供简单高效的文本分类和表征学习方法的同时,性能比肩深度学习并且训练速度非常快,往往可以作为文本分类场景下的baseline。其模型非常简单,和word2vec的cbow模型很相似,不同点在于cbow预测的是中心词,而fasttext预测的是文本标签。
上图是论文中模型的架构,其模型输入 = 句子本身 + n-gram额外特征。举个例子:我喜欢她。我们对这句话分词后得到:我,喜欢,她。其对应的bi-gram特征为:我喜欢,喜欢他。那么模型的输入变为:我,喜欢,她, 我喜欢,喜欢她。这样做一方面引入了更多字符特征,另一方面解决了词顺序的问题,毕竟我喜欢她和她喜欢我还不是同一个意思。Tri-gram以此类推。
由于每个句子的长度不同,为了便于建模,需要把每个句子填充到相同的长度。如果只使用常见的10000的词(数据预处理后),我们需要把它映射到2-10002之间的整数索引,其中1是留给未登录词,0是用来填充长度。此外,如果数据量很大且句子较长,会引起n-gram数据组合爆炸的问题,原论文中通过采用hash映射到1到K之间来解决这个问题(具体见下面的模型优化章节),同时为了避免和前面的汉字索引出现冲突,哈希映射值一般会加上最大长度的值,即映射到10003-10003+k之间。所以模型的输入长度 = 句子填充长度 + 哈希映射值 = 10003 + k。
数据转换索引后,模型会经过Embedding层,将索引映射为稠密向量,那么模型是如何求平均的呢?这里参考Keras官方实现的fasttext的文本分类文档:
- model = Sequential()
-
- # 我们从有效的嵌入层开始,该层将 vocab 索引映射到 embedding_dims 维度
- model.add(Embedding(max_features,
- embedding_dims,
- input_length=maxlen))
-
- # 我们添加了 GlobalAveragePooling1D,它将对文档中所有单词执行平均嵌入
- model.add(GlobalAveragePooling1D())
-
- # 我们投影到单个单位输出层上,并用 sigmoid 压扁它:
- model.add(Dense(1, activation='sigmoid'))
-
- model.compile(loss='binary_crossentropy',
- optimizer='adam',
- metrics=['accuracy'])

这里采用了GlobalAveragePooling1D()来对所有文档执行嵌入,它会把所有词的Embedding的向量求平均得到一个向量。即把我,喜欢,她,我喜欢,喜欢她这5个词的Embedding求和再除以5,得到均值向量,然后跟上输出层。
在模型优化上,作者主要采用了两种加速训练的方法:
1、层次softmax: 这个并不是新颖的技术,主要是用来解决文本类别比较多时,使用softmax计算会使计算复杂度很高,大概是O(kh),其中k是文本类别树,h是embedding维度。而层次softmax采用哈夫曼树的方式来把复杂度降低到O(hlog2k),大大加快了训练速度。具体细节不铺开讨论。
2、其次,为了节省内存和n-gram组合爆炸的问题,fasttext把n-gram数据构成一个词典,并通过哈希函数映成整数(索引)至1到K,理论上哈希到同一个位置的不同n-gram应该共享索引和Embedding(待验证)
二、代码实战
1、安装fasttext:
- git clone https://github.com/facebookresearch/fastText.git
- cd fastText
- pip install .
如果安装不上,可以用gensim包中的fasttext。
2、数据简介:
以天池新闻文本分类数据集为数据集,其中训练集有20万条样本,测试集有AB两个版本各5万条样本,为避免选手自行打标,对数据按字符进行了匿名处理,可以理解为把汉字转化成了索引,样本如下图所示:
数据匿名处理其实帮我们省略了很多数据预处理的工作,比如说去除标点符号、去除停用词等等,但是可能也难以达到特别好的精度。
数据统计总共有14个类别,是个典型的文本多分类问题,评估指标为f1-score 。
3、模型参数:
- input # training file path (required)
- lr # learning rate [0.1]
- dim # size of word vectors [100]
- ws # size of the context window [5]
- epoch # number of epochs [5]
- minCount # minimal number of word occurences [1]
- minCountLabel # minimal number of label occurences [1]
- minn # min length of char ngram [0]
- maxn # max length of char ngram [0]
- neg # number of negatives sampled [5]
- wordNgrams # max length of word ngram [1]
- loss # loss function {ns, hs, softmax, ova} [softmax]
- bucket # number of buckets [2000000]
- thread # number of threads [number of cpus]
- lrUpdateRate # change the rate of updates for the learning rate [100]
- t # sampling threshold [0.0001]
- label # label prefix ['__label__']
- verbose # verbose [2]
- pretrainedVectors

4、完整代码
- import fasttext
- import pandas as pd
- from sklearn.utils import shuffle
-
-
- class DataProcess(object):
-
- def load_data(self):
- df_train = pd.read_csv('train_set.csv', sep='\t')
-
- # 对类别加上 "__label__"前缀
- df_train['label_ft'] = '__label__' + df_train['label'].astype(str)
-
- df_train[['text', 'label_ft']].iloc[:195000].to_csv('train.csv', index=None, header=None, sep='\t')
-
- return df_train
-
- def split_data(self, df_train):
- # 打乱数据集
- df_train = shuffle(df_train)
-
- # 训练集
- train_data = df_train[['text', 'label_ft']].iloc[:195000]
- train_data.to_csv('train.csv', index=None, header=None, sep='\t')
-
- # 挑选5000条数据作为验证集
- validate_data = df_train[['text', 'label_ft']].iloc[-5000:]
- validate_data.to_csv('validate.csv', index=None, header=None, sep='\t')
-
-
- class FastTextModel(object):
-
- def __init__(self, ):
- pass
-
- def train(self):
- model = fasttext.train_supervised(input='train.csv',
- label_prefix="__label__",
- epoch=30,
- dim=32,
- lr=0.1,
- loss='softmax',
- word_ngrams=3,
- min_count=2,
- bucket=1000000)
-
- return model
-
- def save_model(self, model):
- model.save_model("fasttext.bin")
-
- def load_model(self):
- model = fasttext.load_model("fasttext.bin")
-
- return model
-
- # 预测验证集结果
- def test(self):
- model = self.load_model()
- score = model.test("validate.csv")
- precision = score[1]
- recall = score[2]
- f1_score = round(2 * (precision * recall) / (precision + recall), 2)
-
- print("验证集评测结果:Precision:{}, Recall:{}, F1-score:{}".format(precision, recall, f1_score))
-
- # 预测5万条测试集A的结果,或者测试集B的结果提交
- def predict_testA(self):
- df_testA = pd.read_csv("test_a.csv")
- test_data = df_testA["text"].values.tolist()
-
- model = self.load_model()
- res = model.predict(test_data)
-
- predict_res = [y_[0].replace("__label__", "") for y_ in res[0]]
- print(predict_res)
- predict_label = pd.Series(predict_res, name="label")
- predict_label.to_csv("predict_label.csv", index=False)
-
-
- if __name__ == '__main__':
- data_process = DataProcess()
- fasttext_model = FastTextModel()
- df_train = data_process.load_data()
- data_process.split_data(df_train)
- model = fasttext_model.train()
- fasttext_model.save_model(model)
- fasttext_model.test()
- fasttext_model.predict_testA()

模型没怎么调参,F1-score达到了0.95:
验证集评测结果:Precision:0.9466, Recall:0.9466, F1-score:0.95
由于数据量比较大,可以移步公众号:一路向AI,回复文本分类获取。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。