赞
踩
文章链接(coling-2020):Enhancing Extractive Text Summarization with Topic-Aware Graph Neural Network
首先我们定义一下抽取式文本自动摘要。抽取式文本自动摘要就是直接从原文中抽取 重要的、相关的 句子,重新组合形成摘要。我们可以形式化的将其分化为三个子任务:
我们发现以往的模型大部分存在以下两个问题:长距离句子建模和全局信息建模问题。
这一类问题又分为两个解决方案,基于层级编码器的模型和基于图卷积的模型,上述两类模型都可以缓解长距离依赖问题,但是还是存在各自的局限性。
上图便是基于层级编码器的模型存在训练 速度慢,容易过拟合,性能提升有限 的问题。
上图是基于图卷积的模型如果使用额外工具建图则存在错误累计问题,如果使用简单的字词特征又难以捕捉深层的语义信息。
针对以上的问题,文章作者提出了该模型
模型的流程如下:
整个文章的主要创新点在于将主题模型融入到摘要模型中,主题模型是基于变分自编码器的,其中变分自编码器的相关知识这里不再赘述,这里主要展示如果通过变分自编码器得到主题的表示。
由于我们建图包含了主题节点和句子节点,属于异质图。我们在原始的GAT模型上进行了小的改进,主要是通过两个不同的非线性变换函数将两个不同的特征空间映射到同一个特征空间中。最后则是损失函数,包含了摘要模型的损失函数和主题模型的损失函数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。