当前位置:   article > 正文

NLP事件检测顶刊顶会模型汇总-2022_事件识别 nlp

事件识别 nlp

MarGNN()(使用图神经网络)

Reinforced, Incremental and Cross-lingual Event Detection From Social Messages

•提出了一种新型的社会事件检测体系结构,并将其命名为FinEvent。FinEvent利用社会消息表示学习框架MarGNN、跨语言社会消息表示学习方法Crlme和社会事件聚类检测模型DRL-DBSCAN,实现离线、在线和跨语言社会事件检

•提出了一种新的多智能体增强加权多关系图神经网络框架MarGNN,以学习更有区别的社会信息嵌入。它从不同关系在社会信息聚合中的重要性的角度提供了一个深刻的解释。

•为了解决社会事件检测中的长尾问题,设计了一种基于平衡抽样的对比学习策略BasCL作为社会信息表征学习的基本目标函数。

•为了实现社会事件的自动聚类检测,提出了一种新的深度强化学习引导的基于密度的空间聚类模型DRL-DBSCAN。不需要离线维护,也不需要人工经验,通过深度强化学习来学习DBSCAN的最优参数。

•为了提高低资源语言信息嵌入的性能,提出了一种新的跨语言社会信息表示学习方法Crlme。它从跨语言社会事件检测的角度提供了一个低成本的迁移学习应用。

•在推特流上实现了大量的实验和分析,证明了FinEvent在有效性和解释方面优于现有的SOTA社会事件检测方法。甚至增量的和跨语言的社会事件检测任务也以知识保存和知识转移的便捷方式被释放。

Jian Liu et al.(基于分类)(使用BERT)

Saliency as Evidence: Event Detection with Trigger Saliency Attribution

  1. 分析了ED模型偏离性能的根源,并提出了一个新的概念,即触发词显著性归因,它可以评估潜在的事件模式。可以评估事件的基本模式。作为一项开创性的研究,提出了传统的 "一个模型适合所有类型 "的范式可能需要被改变。
  2. 提出了一种新的基于触发显著性归因的ED训练机制,它在两个基准测试上取得了良好的结果,特别是在处理上下文相关的事件类型时。
  3. 强调了触发词依赖和上下文依赖的事件类型的几种不同模式,未来可能会激励对它们之间的差异的研究。

OACLED()(使用CRF)

Cross-Lingual Event Detection via Optimized Adversarial Training

本篇论文专注于跨语言事件检测,目前最新的研究利用了预训练多语言模型的语言不变特性。然而还有改进的余地,本篇论文采用对抗语言适应来训练语言鉴别器,以使用未标记的数据来辨别源语言和目标语言。鉴别器以对抗方式进行训练,以便编码器学习生成精炼的、语言不变的表示,从而提高性能。通过只向鉴别器提供信息量最大的样本来优化对抗训练过程。基于两个不同的指标:样本相似性和事件存在。利用最优传输(Optimal Transport)作为一种解决方案,将这两个不同的信息源自然地结合到选择过程中。

ZEOP(基于prompt)(使用BERT)

Zero-Shot Event Detection Based on Ordered Contrastive Learning and Prompt-Based Prediction

  1. 基于有序的对比学习提出一个zero-shot事件检测模型。
  2. 将基于prompt的预测引入到zero-shot事件检测问题中,消除了对预定义事件结构和启发式规则的依赖。

()()

Event Detection for Suicide Understanding

提出新的数据集

介绍了 SuicideED:一个用于事件检测任务的新数据集,具有七种自杀事件类型,可全面捕获自杀行为和想法,以及一般风险和保护因素。

(基于Prompt,序列标注)(使用CRF)

Prompt-Guided Few-Shot Event Detection

  1. 我们引入了一种新的 “识别-后-定位 “的事件检测方法。通过将类型语义与序列标签任务解耦,我们将基于cloze的提示学习的好处带到事件检测中,并允许灵活地注入事件知识。
  2. 我们将基于cloze的提示学习范式扩展到多标签的事件类型分类。这使我们能够利用预先训练好的LM的语言建模能力来完成事件识别任务,并迅速适应新的事件类型。这种方法可以应用于其他多标签分类任务。
  3. 我们设计了一个注意力增强的单类CRF标记器,用于事件触发的定位。这种关注机制允许对相邻的标记进行预测的互动。
  4. 我们的模型在少数事件和完全监督设置下的事件检测任务中都取得了出色的表现。特别是在FewEvent(Deng等人,2020年)上,我们对少数事件的检测超过了下一个最佳基线16%的F1。在MAVEN上,我们在识别阶段取得了8%的F1收益,并首次提出了少数事件检测的结果。

KiPT(基于Prompt,生成式)()

Knowledge-injected Prompt Tuning for Event Detection

事件检测旨在通过识别和分类事件触发器(最具代表性的词)来从文本中检测事件。大多数现有工作严重依赖复杂的下游网络,需要足够的训练数据。因此这些模型可能在结构上是冗余的,并且在数据稀缺时表现不佳。基于prompt的模型易于构建,并且有望用于小样本任务。然而当前的基于prompt的方法可能存在精度低的问题,因为它们没有引入与事件相关的语义知识(例如,词性、语义相关性等)。为了解决这些问题,本篇论文提出了一种知识注入提示调整(KiPT)模型。具体来说,事件检测任务被制定为条件生成任务。然后使用外部知识库构建知识注入提示,并利用prompt tuning策略来优化提示。大量实验表明KiPT优于baseline,尤其是在小样本场景中。

DESED(基于对话,基于生成,序列标注)(使用BERT)

DESED: Dialogue-based Explanation for Sentence-level Event Detection

许多最近的句子级事件检测工作都集中在丰富句子语义上,例如,通过多任务或基于prompt的学习。 尽管性能有提升,但这些方法通常依赖于标签广泛的手动注释或需要领域专业知识来设计复杂的模板和规则。 本文提出了一种新范式,称为基于对话的解释,以增强事件检测的句子语义。通过对事件进行基于对话的解释,意味着通过一致的信息密集型对话来解释它,以原始事件描述作为开始话语。 提出了三种简单的对话生成方法,然后将其输出送到混合注意机制中以表征互补事件语义。

DualGAT(基于图神经网络,分类)()

Event Detection with Dual Relational Graph Attention Networks

事件检测旨在从文本片段中识别特定事件类型的实例,是信息提取中的一项基本任务。大多数现有方法利用句法知识和一组句法关系来增强事件检测。然而这些基于句法的方法的一个副作用是它们可能会混淆不同的句法关系,并倾向于引入冗余或嘈杂的信息,这可能会导致性能下降。为此,本篇论文们提出了一个简单而有效的模型DualGAT(对偶关系图注意力网络),利用句法和语义关系的互补性来缓解这个问题。具体来说,首先构建一个对偶关系图,将句法和语义关系聚合到图中的关键节点,以便从多个角度(即句法和语义视图)全面捕获与事件相关的信息。然后采用增强关系图注意力网络对图进行编码,并通过引入上下文信息优化其注意力权重,从而进一步提高事件检测的性能。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/350395?site
推荐阅读
相关标签
  

闽ICP备14008679号