当前位置:   article > 正文

【提示学习】Label prompt for multi-label text classification_mask提示模板

mask提示模板

论文信息

名称内容
论文标题Label prompt for multi-label text classification
论文地址https://link.springer.com/article/10.1007/s10489-022-03896-4
研究领域NLP, 文本分类, 提示学习, 多标签
提出模型LP-MTC(Label Prompt Multi-label Text Classification model)
来源Applied Intelligence

阅读摘要

  标签文本分类的关键问题之一是提取和利用标签之间的相关性,但直接建模标签之间的相关性很难。

  LP-MTC设计了多标签文本分类模板,将标签整合到预训练语言模型的输入中,可以捕获标签之间的相关性以及标签与文本之间的语义信息,从而有效地提高模型的性能。

1 介绍

  由文本分类引出多标签文本分类。

  随之介绍解决MTC的三个视角:

  1.捕获文档信息;
  2.提取文档与标签的判别信息;
  3.挖掘标签相关性

  阐述二元分类、CNN、注意力机制会忽略标签相关性;生成式网络、学习标签表示、建模标签关联的问题所在:当标签文本之间没有太大差异或缺少标签文本时,这些模型可能会在分类上失败。此外,在未知和复杂的标签空间中对标签的关联进行建模是非常具有挑战性的。

  然后从PLM过渡到使用Prompt学习。

  LP-MTC利用语言模型学习到的提示模板中的语义信息,学习标签与文本之间的关系;LP-MTC更通用,不需要针对不同的数据集进行定制。

2 相关工作

  介绍了多标签文本分类、提示学习。写的比较中规中矩,没有特殊的地方。

3 基础模型

  介绍了一下Prompt Learning的基本结构,即PVP模式。

在这里插入图片描述

PVP模式可以参考我先前的博客:
1、《基于提示学习的小样本文本分类方法》
2、Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classific
3、Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference

4 LP-MTC

  介绍了文章提出的模型。

在这里插入图片描述

  提出了两个Trick。一是把文本标签按位置进行MASK,二是联合BERT模型原有的MLM进行联合训练。

4.1 提示模板

  对于每个标签,有三个值: Y , N , M Y,N,M Y,N,M,分别表示是、否、MASK。

  同时,对于每个标签还显式地赋予了位置编码,即给这个标签的前后分别加上token: S T A R T i START_i STARTi E N D i END_i ENDi,而且这每个 S T A R T i START_i STARTi E N D i END_i ENDi都需要加入到BERT模型的词汇表里面。

  最终,如果这个数据集有3个标签,该条文本的标签为[1, 0, MASK],那么最终会拼接上的模板为:

在这里插入图片描述

4.2 联立MLM模型

  将标签预测与语言模型的MLM任务结合起来。其实就是利用了BERT模型原本的MLM任务,这在> Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference论文中也有使用。

4.3 损失函数

  因为有一个prompt任务,一个MLM任务,要加权一下:

在这里插入图片描述

6 分析

  主要说一下参数 a l p h a alpha alpha的设置,和位置编码的效果。

  参数在0.01比较好:

在这里插入图片描述
  消融实验还设置了三种模板形式:

  1、普通模板
  2、不加位置编码
  3、加位置编码

在这里插入图片描述
  效果如下,说明加位置编码的模板好:
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/469279
推荐阅读
  

闽ICP备14008679号