赞
踩
SpERT(基于span)(使用BERT)
Span-based Joint Entity and Relation Extraction with Transformer Pre-training
BRAD(提出数据集)(使用BART)
Event Extraction from Historical Texts: A New Dataset for Black Rebellions
提出了一个新的数据集(论文没有给公开的数据集链接), 是本文的主要贡献点。
TEXT2EVENT(生成模型)
TEXT2EVENT: Controllable Sequence-to-Structure Generation for End-to-end Event Extraction
CasEE(基于分类)(使用了BERT,CLN)
CasEE: A Joint Learning Framework with Cascade Decoding for Overlapping Event Extraction
CLEVE(无监督的方法,使用GNN作为图编码器)
CLEVE: Contrastive Pre-training for Event Extraction
FEAE(基于MRC)
Trigger is Not Sufficient: Exploiting Frame-aware Knowledge for Implicit Event Argument Extraction
Gen-arg(生成模型)
Document-Level Event Argument Extraction by Conditional Generation
GIT(基于GCN)(使用GCN)
Document-level Event Extraction via Heterogeneous Graph-based Interaction Model with a Tracker
篇章级事件抽取旨在从整篇文章中识别出事件信息。现有的方法面临的两个挑战是:① 目标 事件元素可能分散在各句子之间,需要模型对cross-sentence的上下文有全面的理解;② 一个文档中可以同时包含多个相关事件,对事件之间的相互依赖关系进行建模仍然是篇章级事件抽取的一项挑战;
本文提出GIT模型实现DEE,贡献为:① 构建了一个具有提及节点和句子节点的异构图交互神经网络,从全局角度联合建模文档中的实体和句子,从而捕捉分散在不同句子中的事件元素的全局上下文;② 为了便于多事件提取,提出了一个Tracker模块,用一个全局记忆模块连续跟踪提取记录,捕获事件之间的相互依赖关系。
NoFPFN(提出评估指标)
Revisiting the Evaluation of End-to-end Event Extraction
提出新的评估指标
GATE(基于GCN修改编码器)(使用GCN)
GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and Event Extraction
对transformer编码器中的attention进行修改
GRIT(生成模型)(使用BERT)
GRIT: Generative Role-filler Transformers for Document-level Event Entity Extraction.
Wen et al.(基于GAT)(使用GAT)
Event Time Extraction and Propagation via Graph Attention Networks.
本文首次提出了基于四元组时间表示的实体时隙填充问题,使得模糊时间跨度的表示更加方便。然后提出了一种基于图注意网络的文档级事件图传播时间信息的方法,该方法由共享实体参数和时间关系构成。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。