当前位置:   article > 正文

NLP学习第一天——Task1 赛题理解_tp(true positive):预测答案正确 fp(false positive):错将其他类预

tp(true positive):预测答案正确 fp(false positive):错将其他类预测为本类

本系列是针对于DataWhale学习小组的笔记,从一个对统计学和机器学习理论基础薄弱的初学者角度出发,在小组学习资料的基础上,由浅入深地对知识进行总结和整理,今后有了新的理解可能还会不断完善。由于水平实在有限,不免产生谬误,欢迎读者多多批评指正。如需要转载请与博主联系,谢谢。

Task1 赛题理解

赛题背景

  • 赛题名称:零基础入门NLP之新闻文本分类
  • 赛题目标:引导初学者学会NLP的预处理、以及常见的SVM、贝叶斯、逻辑回归等常见用于文本分类的机器学习算法与常用的深度学习算法。
  • 赛题任务:赛题以自然语言处理为背景,要求选手对新闻文本进行分类,这是一个典型的字符识别问题。

数据集

赛题数据为新闻文本,并按照字符级别进行匿名处理。整合划分出14个候选分类类别:财经、彩票、房产、股票、家居、教育、科技、社会、时尚、时政、体育、星座、游戏、娱乐的文本数据。赛题数据由以下几个部分构成:训练集20w条样本,测试集A包括5w条样本,测试集B包括5w条样本。如下:

数据集中标签的对应关系:

{'科技': 0, '股票': 1, '体育': 2, '娱乐': 3, '时政': 4, '社会': 5, '教育': 6, '财经': 7, '家居': 8, '游戏': 9, '房产': 10, '时尚': 11, '彩票': 12, '星座': 13}

赛题数据展示:

评测标准

评测试用 f1_score 的均值,数值越大,分数越高

解释:

首先定义以下几个概念:

TP(True Positive):预测答案正确

FP(False Positive):错将其他类预测为本类

FN(False Negative):本类标签预测为其他类标

通过第一步的统计值计算每个类别下的precision和recall

精准度 / 查准率(precision):指被分类器判定正例中的正样本的比重

召回率 / 查全率 (recall):指的是被预测为正例的占总的正例的比重

数据下载

file description  size link
train_set.csv.zip训练集数据(选手需要自行解压)236.11MBhttps://tianchi-competition.oss-cn-hangzhou.aliyuncs.com/531810/train_set.csv.zip
test_a.csv.zip测试集A榜数据(选手需要自行解压) 59.12MBttps://tianchi-competition.oss-cn-hangzhou.aliyuncs.com/531810/test_a.csv.zip
test_a_sample_submit.csvtest_a_sample_submit.csv97.66KBhttps://tianchi-competition.oss-cn-hangzhou.aliyuncs.com/531810/test_a_sample_submit.csv


解题思路

因为数据不是中文,因此难点是对匿名字符建模

推荐思路:

1、TF-IDF + 机器学习分类器

直接使用TF-IDF对文本提取特征,并使用分类器进行分类。在分类器的选择上,可以使用SVM、LR、或者XGBoost。

2、FastText

FastText是入门款的词向量,利用Facebook提供的FastText工具,可以快速构建出分类器。

3、WordVec + 深度学习分类器

WordVec是进阶款的词向量,并通过构建深度学习分类完成分类。深度学习分类的网络结构可以选择TextCNN、TextRNN或者BiLSTM。

4、Bert词向量

Bert是高配款的词向量,具有强大的建模学习能力。

5.利用常见的机器学习算法

例如常用于文本分类的算法例如SVM、贝叶斯、逻辑回归、xgboost等等算法。
 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/623420
推荐阅读
相关标签
  

闽ICP备14008679号