赞
踩
RA-GCN(基于序列标注)(使用BiLSTM,GCN)
Event Detection with Relation-Aware Graph Convolutional Networks
EKD(基于序列标注)(使用BERT)
Improving Event Detection via Open-domain Trigger Knowledge
EE-GCN(基于GCN,序列标注)(使用GCN)
Edge-Enhanced Graph Convolution Networks for Event Detection with Syntactic Relation
Yunmo Chen et al.(基于MRC)(使用BERT)
Reading the Manual-Event Extraction as Definition Comprehension
我们提出了一种事件提取的方法,它使用漂白的语句来提供一个模型来访问注释手册中包含的信息。我们的模型用从文本中提取的值来逐步细化语句。我们还证明了对罕见或根本没有的事件类型进行预测的可行性。
Xiaozhi Wang,(基于分类)(使用BERT,CNN)
Adversarial Training for Weakly Supervised Event Detection
TLNN(基于序列标注)(使用LSTM,CRF)
Event Detection with Trigger-Aware Lattice Neural Network
本文提出一个事件抽取模型TLNN,该模型可以有效缓解触发词错误匹配和一词多义的触发词问题,借助多个粒度的语义特征表示(字级别、词级别、字/词释义级别)和基于触发词感知的特征提取器捕获多个层级的语义信息,得到了较好的实验效果。
TBNNAM(基于分类)(使用LSTM,Attention)
Event Detection without Triggers
GCN-ED(基于序列标注)(使用BiLSTM,GCN)
Graph Convolutional Networks with Argument-Aware Pooling for Event Detection
模型在ED的数据集上实现了state-of-the-art。
这篇论文提供了 一个 句法依存树 与 图卷积网络 结合的很好的方案,并且取得了可观的结果。
不过这种方案对句法依存树和命名实体的标注质量要求还是较高的,如果这两种标注中有较多噪声,对模型效果势必有较大影响。
而实际使用中句法依存树这类标注的成本很高,可能只能使用自动标注工具,所以这种情况下可能模型效果会打折扣。
Yubo Chen, Hang Yang, Kang Liu, Jun Zhao, and Yantao Jia. 2018.(基于序列标注)(使用BiLSTM,Gated Multi-level Attention)
Collective Event Detection via a Hierarchical and Bias Tagging Networks with Gated Multi-level Attention Mechanisms
DEEB-RNN(基于分类)(Bi-GRU)
Document Embedding Enhanced Event Detection with Hierarchical and Supervised Attention
大部分现存的事件检测方法主要利用句子级别的上下文信息。
基于特征的方法捕捉文档级别的信息,这些特征需要人工设置且存在错误传播,同时通过规则在文档级发现事件间信息,这些规则难以完整。
基于表示的方法,由于受到无监督训练过程的限制,文档级别的表示不能具体地捕捉事件相关的信息。
SELF(基于分类)(使用GAN,Bi-LSTM + GAN)
Self-regulation: Employing a Generative Adversarial Network to Improve Event Detection
GMLATT(基于分类)(使用了BiGRU)
Event Detection via Gated Multilingual Attention Mechanism
该框架包含两种注意力机制:单语环境注意和门控跨语言注意。在我们最好的情况下,这是第一个引入对多语言数据建模的注意机制的工作在ED任务中。
Liu et al(基于分类)(使用注意力机制)
Exploiting Argument Information to Improve Event Detection via Supervised Attention Mechanisms
HMM(基于分类)(使用LSTM,CNN)
A Language-Independent Neural Network for Event Detection
提出一个基于LSTM和CNN的事件检测模型,用于捕捉序列和分块信(chunk)息,在多个语言中取得不错的效果。
模型的整体框架如上图,主要分为下面三部分:
Bi-LSTM:输入编码为Skip Gram model训练得到。
CNN:输入为token编码和位置编码(到候选触发词的距离)的拼接,使用两种维度(2和3)的卷积核。
分类:拼接前两部分的输出,进行分类。
NC-CNN()(使用CNN)
Modeling Skip-Grams for Event Detection with Convolutional Neural Networks
我们提出了一个新的 CNN 架构的 ED,利用非连续卷积的句子。我们对提出的模型的一般设置和 DA 设置的评价表明了非连续机制的有效性。
FrameNet(基于分类)(使用FrameNet)
Leveraging FrameNet to Improve Automatic Event Detection
使用FrameNet提高事件检测任务的表现,同时探究FrameNet中的frame和ACE中事件之间的关系。
CNNs(基于序列标注)(使用CNN)
Event Detection and Domain Adaptation with Convolutional Neural Networks
我们提供了一个用于事件检测的CNN,它可以自动学习预训练的字嵌入,位置嵌入以及实体类型嵌入的有效特征表示,并减少错误传播。我们进行了实验,以在一般设置和域适应设置中比较所提出的CNN与最先进的基于特征的系统。实验结果证明了CNN的跨域的有效性和稳健性
David Ahn. 2006. The stages of event extraction. In Proceedings of the Workshop on Annotating and Reasoning about Time and Events
Siddharth Patwardhan and Ellen Riloff. 2009. A unified model of phrasal and sentential evidence for information extraction. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP)
Shasha Liao and Ralph Grishman. 2010b. Using document level cross-event inference to improve event extraction. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL)
Yu Hong, Jianfeng Zhang, Bin Ma, Jianmin Yao, Guodong Zhou, and Qiaoming Zhu. 2011. Using cross-entity inference to improve event extraction. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL).
Qi Li, Heng Ji, and Liang Huang. 2013. Joint event extraction via structured prediction with global features. In Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL)
Bishan Yang and Tom M. Mitchell. 2016. Joint extraction of events and entities within a document context. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。