当前位置:   article > 正文

【文献阅读笔记】02-用多轮问答框架进行实体关系联合抽取_用阅读理解框架解决关系抽取

用阅读理解框架解决关系抽取

【文献阅读】02-用多轮问答框架进行实体关系联合抽取-Entity-Relation Extraction as Multi-turn Question Answering

1 Introduction

1.1 实体关系联合抽取

  实体关系抽取任务:提取具有语义关系的实体对,即三元组; 是信息提取的中心任务,需要从非结构化文本自动构建知识 。
在这里插入图片描述
实体关系抽取目前两种常见解决方案

Pipeline:早期的信息抽取将实体抽取和关系抽取看作两个独立的任务,这样的串联模型在建模上相对更简单。但这样将实体识别和关系抽取当作两个独立的任务会导致一些问题:比如误差积累、实体冗余、关系重叠问题等等 。

联合抽取:对实体抽取和关系分类联合建模,能够利用实体和关系之间的交互信息,同时抽取实体并分类实体对的关系,可以很好地解决流水线方法所存在的问题。

文章认为目前的方法依然存在一些问题
算法层面:1.实体距离远 2.实体共享问题 3.关系跨度重叠问题
任务形式:三元组对未充分表达文本背后的数据结构

1.2 文章工作

在这里插入图片描述
  以这段语料为例,标签之间存在层次依赖关系:比如职位的抽取依赖于时间,因为一个人可以在不同的时间段内担任公司的多个职位;职位的抽取也依赖于公司,因为一个人可以在多家公司任职。
  这样的例子在真实情景下是常见的: 所以文章把提取目标从三元组延伸到了数据表,提取出的信息对语料表达的更加全面。

文章提出新方法解决实体关系抽取问题

将关任务转换为多轮问答任务(Multi QA):每个实体类型和关系类型由问答模板表征 实体和关系通过回答对应的模板问题来提取 ,答案是文本跨度,使用机器阅读理解(MRC)框架提取 。

在这里插入图片描述

Multi QA方法优势
1.提供了更好的方式捕获标注的层级依赖
2.问题查询编码了想要识别的关系类型的重要先验知识
3.提供了一种同时提取实体和关系的自然方式

2 MULTI-QA

2.1系统框架

在这里插入图片描述

整个抽取过程分为两个阶段

1)头实体抽取阶段(4-9行)
多轮问答的每个步骤均由一个实体触发,为了抽取这个头实体,用EntityQuesTemplates(第四行)将每个实体类型转化为一个问题;
实体 e 1 e_1 e1可以通过回答问题(第五行)抽取。
如果系统输出了特殊的NONE结果,这意味着s没有包含任何符合类型的实体。

2)关系和尾实体抽取阶段(10-24行)
ChainOfRelTemplates定义了一个关系链,要按照这个关系链的顺序进行多轮QA,抽取的顺序是需要手动预定义的。
ChainOfRelTemplates同样定义了每个关系的模板,每个模板包含了一些待填充的空缺位置。
为了生成一个问题(14行),要将先前抽取的头实体插入到模板的空位中。
关系REL和尾实体 e e e可以通过回答生成的问题(15行)进行联合抽取。
如果返回了NONE,那么说明给定的句子没有答案。

  值得注意的是:头实体抽取阶段所抽取到的实体可能并不都是头实体。在关系和尾实体抽取阶段,从第一阶段得到的实体最初被假定为头实体,并将他们送到模板以生成问题。如果从第一阶段抽取的实体e1确实是一个头实体,那么QA模型将会通过回答相应的问题,否则答案将会制定为NONE并忽略掉。

2.2问题模板

  每个实体类型都与模板生成的特定于类型的问题相关联。 有两种方法可以基于模板生成问题:自然语言问题或伪问题。伪问题不一定是语法问题。 在关系和尾实体联合提取阶段,通过将特定于关系的模板与提取的实体合并,生成一个问题。问题可以是自然语言问题,也可以是伪问题

在这里插入图片描述
在这里插入图片描述

2.3 用MRC抽取答案

在这里插入图片描述
标准的MRC任务设置
  对上下文C,给定一个问题Q,预测答案的跨度。

QA框架
  文章使用BERT作为主干。为了与BERT模型对齐,问题Q和上下文C被合并到一起:[CLS,Q,SEP,C,SEP],其中CLS和SEP都是特殊的token。Q是token化的问题,C是上下文。每个上下文token的表示是通过使用多层的transformer获得的。

  传统的MRC模型是通过将两个softmax层应用于上下文token来预测开始和结束索引,只适用于单答案抽取任务。但是对于这篇文章的任务不合适,因为在文章的问题环境中,一句话/段落可能会存在多个答案。

  为了解决这个问题,文章将任务转化为序列标记问题:在给定问题的情况下,为上下文中的每个token预测一个BMEO标签(beginning, inside, ending 和 outside)。每个单词的都会输出一个BMEO标签,达到抽取多个答案的目标。

联合训练
  在训练阶段,本文共同训练了两个阶段的目标函数, 其中,λ∈[0,1]是控制两个目标之间权衡的参数,在验证集上可以调整其值。这两个模型都是通过标准的BERT模型进行初始化的,并且在训练的过程中共享参数。

在这里插入图片描述

2.4 强化学习

  在一轮问答中抽取的答案只影响自身的准确率,还会影响到下游轮次中问题的构建,所以会影响到后面的准确率。

文章采用强化学习来缓解这个问题

在强化学习设定里,需要定义行为(action)和策略(policy)

  在多轮QA设定中:action是在每个回合中选择一个文本范围(span), 策略policy定义了为 在给定问题和上下文的情况下 选择某个文本跨度(span)的可能性: 这个概率是将 w 1 w_1 w1分配给B(beginning), w 2 w_2 w2,…, w n − 1 w_{n-1} wn1分配给M(inside)和 w n w_n wn被分配给E(ending)的联合概率。

在这里插入图片描述

  对于给定的句子s,文章使用正确提取的三元组数目作为奖励。使用了策略梯度学习算法-reinforce,用于找到使期望收益 E π E_π Eπ [ R ( w ) ] [R(w)] [R(w)]最大化的最优策略。其中,期望值是通过从策略π采样来近似得到,并使用似然比来计算梯度: 对于多回合QA设置中的每回合,正确回答都会赢得+1的奖励,这所有轮奖励的累加便可以得到最终的奖励值。

3 实验

3.1 实验结果

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2 消融实验

在这里插入图片描述
在这里插入图片描述

4 结论

文章提出新方法解决实体关系抽取问题:将关任务转换为多轮问答任务
提供了更好的方式捕获标注的层级依赖
问题查询编码了想要识别的关系类型的重要先验知识
提供了一种同时提取实体和关系的自然方式

Multi QA在AEC和CoNLL04数据集上实现了最优的(SOTA)性能

建立了一个更复杂和更困难的数据集RESUME
从RESUME构建结构化知识库需要四到五次QA
多回合QA设置可以很容易地集成强化学习,以获得额外的性能提升

文章链接
Entity-Relation Extraction as Multi-turn Question Answering

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/879543?site
推荐阅读
相关标签
  

闽ICP备14008679号