当前位置:   article > 正文

FastText实战天池新闻文本分类比赛_fasttext输入长度

fasttext输入长度

FastText的精髓在于将整篇文档的词及n-gram向量叠加平均得到文档向量,然后使用文档向量做softmax多分类。

上面是业界大佬们对FastText模型的高度总结,看起来是不是特别简单?然而,模型的输入到底是什么?为什么要引入n-gram向量?文档的词以及n-gram向量是怎么叠加的?为什么它训练速度快并且性能很好?这些问题一直困扰着我,今天就来深扒一下。

 一、理论基础

FastText是facebook开源的一个快速文本分类器,在提供简单高效的文本分类和表征学习方法的同时,性能比肩深度学习并且训练速度非常快,往往可以作为文本分类场景下的baseline。其模型非常简单,和word2vec的cbow模型很相似,不同点在于cbow预测的是中心词,而fasttext预测的是文本标签。

上图是论文中模型的架构,其模型输入 = 句子本身 + n-gram额外特征。举个例子:我喜欢她。我们对这句话分词后得到:我,喜欢,她。其对应的bi-gram特征为:我喜欢,喜欢他。那么模型的输入变为:我,喜欢,她, 我喜欢,喜欢她。这样做一方面引入了更多字符特征,另一方面解决了词顺序的问题,毕竟我喜欢她和她喜欢我还不是同一个意思。Tri-gram以此类推。

由于每个句子的长度不同,为了便于建模,需要把每个句子填充到相同的长度。如果只使用常见的10000的词(数据预处理后),我们需要把它映射到2-10002之间的整数索引,其中1是留给未登录词,0是用来填充长度。此外,如果数据量很大且句子较长,会引起n-gram数据组合爆炸的问题,原论文中通过采用hash映射到1到K之间来解决这个问题(具体见下面的模型优化章节),同时为了避免和前面的汉字索引出现冲突,哈希映射值一般会加上最大长度的值,即映射到10003-10003+k之间。所以模型的输入长度 = 句子填充长度 + 哈希映射值 = 10003 + k。

数据转换索引后,模型会经过Embedding层,将索引映射为稠密向量,那么模型是如何求平均的呢?这里参考Keras官方实现的fasttext的文本分类文档:

  1. model = Sequential()
  2. # 我们从有效的嵌入层开始,该层将 vocab 索引映射到 embedding_dims 维度
  3. model.add(Embedding(max_features,
  4. embedding_dims,
  5. input_length=maxlen))
  6. # 我们添加了 GlobalAveragePooling1D,它将对文档中所有单词执行平均嵌入
  7. model.add(GlobalAveragePooling1D())
  8. # 我们投影到单个单位输出层上,并用 sigmoid 压扁它:
  9. model.add(Dense(1, activation='sigmoid'))
  10. model.compile(loss='binary_crossentropy',
  11. optimizer='adam',
  12. metrics=['accuracy'])

这里采用了GlobalAveragePooling1D()来对所有文档执行嵌入,它会把所有词的Embedding的向量求平均得到一个向量。即把我,喜欢,她,我喜欢,喜欢她这5个词的Embedding求和再除以5,得到均值向量,然后跟上输出层。

在模型优化上,作者主要采用了两种加速训练的方法:

1、层次softmax: 这个并不是新颖的技术,主要是用来解决文本类别比较多时,使用softmax计算会使计算复杂度很高,大概是O(kh),其中k是文本类别树,h是embedding维度。而层次softmax采用哈夫曼树的方式来把复杂度降低到O(hlog2k),大大加快了训练速度。具体细节不铺开讨论。

2、其次,为了节省内存和n-gram组合爆炸的问题,fasttext把n-gram数据构成一个词典,并通过哈希函数映成整数(索引)至1到K,理论上哈希到同一个位置的不同n-gram应该共享索引和Embedding(待验证)

二、代码实战

1、安装fasttext:

  1. git clone https://github.com/facebookresearch/fastText.git
  2. cd fastText
  3. pip install .

如果安装不上,可以用gensim包中的fasttext。

2、数据简介:

以天池新闻文本分类数据集为数据集,其中训练集有20万条样本,测试集有AB两个版本各5万条样本,为避免选手自行打标,对数据按字符进行了匿名处理,可以理解为把汉字转化成了索引,样本如下图所示:

数据匿名处理其实帮我们省略了很多数据预处理的工作,比如说去除标点符号、去除停用词等等,但是可能也难以达到特别好的精度。

数据统计总共有14个类别,是个典型的文本多分类问题,评估指标为f1-score 。

3、模型参数:

  1. input # training file path (required)
  2. lr # learning rate [0.1]
  3. dim # size of word vectors [100]
  4. ws # size of the context window [5]
  5. epoch # number of epochs [5]
  6. minCount # minimal number of word occurences [1]
  7. minCountLabel # minimal number of label occurences [1]
  8. minn # min length of char ngram [0]
  9. maxn # max length of char ngram [0]
  10. neg # number of negatives sampled [5]
  11. wordNgrams # max length of word ngram [1]
  12. loss # loss function {ns, hs, softmax, ova} [softmax]
  13. bucket # number of buckets [2000000]
  14. thread # number of threads [number of cpus]
  15. lrUpdateRate # change the rate of updates for the learning rate [100]
  16. t # sampling threshold [0.0001]
  17. label # label prefix ['__label__']
  18. verbose # verbose [2]
  19. pretrainedVectors

4、完整代码

  1. import fasttext
  2. import pandas as pd
  3. from sklearn.utils import shuffle
  4. class DataProcess(object):
  5. def load_data(self):
  6. df_train = pd.read_csv('train_set.csv', sep='\t')
  7. # 对类别加上 "__label__"前缀
  8. df_train['label_ft'] = '__label__' + df_train['label'].astype(str)
  9. df_train[['text', 'label_ft']].iloc[:195000].to_csv('train.csv', index=None, header=None, sep='\t')
  10. return df_train
  11. def split_data(self, df_train):
  12. # 打乱数据集
  13. df_train = shuffle(df_train)
  14. # 训练集
  15. train_data = df_train[['text', 'label_ft']].iloc[:195000]
  16. train_data.to_csv('train.csv', index=None, header=None, sep='\t')
  17. # 挑选5000条数据作为验证集
  18. validate_data = df_train[['text', 'label_ft']].iloc[-5000:]
  19. validate_data.to_csv('validate.csv', index=None, header=None, sep='\t')
  20. class FastTextModel(object):
  21. def __init__(self, ):
  22. pass
  23. def train(self):
  24. model = fasttext.train_supervised(input='train.csv',
  25. label_prefix="__label__",
  26. epoch=30,
  27. dim=32,
  28. lr=0.1,
  29. loss='softmax',
  30. word_ngrams=3,
  31. min_count=2,
  32. bucket=1000000)
  33. return model
  34. def save_model(self, model):
  35. model.save_model("fasttext.bin")
  36. def load_model(self):
  37. model = fasttext.load_model("fasttext.bin")
  38. return model
  39. # 预测验证集结果
  40. def test(self):
  41. model = self.load_model()
  42. score = model.test("validate.csv")
  43. precision = score[1]
  44. recall = score[2]
  45. f1_score = round(2 * (precision * recall) / (precision + recall), 2)
  46. print("验证集评测结果:Precision:{}, Recall:{}, F1-score:{}".format(precision, recall, f1_score))
  47. # 预测5万条测试集A的结果,或者测试集B的结果提交
  48. def predict_testA(self):
  49. df_testA = pd.read_csv("test_a.csv")
  50. test_data = df_testA["text"].values.tolist()
  51. model = self.load_model()
  52. res = model.predict(test_data)
  53. predict_res = [y_[0].replace("__label__", "") for y_ in res[0]]
  54. print(predict_res)
  55. predict_label = pd.Series(predict_res, name="label")
  56. predict_label.to_csv("predict_label.csv", index=False)
  57. if __name__ == '__main__':
  58. data_process = DataProcess()
  59. fasttext_model = FastTextModel()
  60. df_train = data_process.load_data()
  61. data_process.split_data(df_train)
  62. model = fasttext_model.train()
  63. fasttext_model.save_model(model)
  64. fasttext_model.test()
  65. fasttext_model.predict_testA()

模型没怎么调参,F1-score达到了0.95:

验证集评测结果:Precision:0.9466, Recall:0.9466, F1-score:0.95

 由于数据量比较大,可以移步公众号:一路向AI,回复文本分类获取。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号