赞
踩
论文笔记整理:谭亦鸣,东南大学博士生,研究兴趣:知识图谱问答
来源:NAACL 2019
链接:https://www.aclweb.org/anthology/N19-1032/
实现多跳推理问答需要模型能够充分理解文本和 query 之间的关系,本文提出了一种双向注意力实体图卷积网络(BAG),该方法利用实体图中的节点及实体图与query之间的attention信息处理上述推理问答任务。其中,实体图通过文本的多层特征构建得到,图卷积网络用于获取实体图中节点的表示(带有关系感知信息),双向attention被用到图与query上,以生成query感知的节点表示,将用于最后的预测中。在QAngaroo WIKIHOP数据集上的实验表明,BAG是目前准确度最高的模型。
作者发现,在 QAngaroo 任务中(该数据集含有多个文本,目标是对于给定的 query,从一系列候选答案中找出正确的那个),大多数情况下,仅依赖一篇文档无法获得query对应的答案,问答过程需要通过文档之间的多跳推理来完成。因此,仅理解部分文本段落可能会使多跳推理失去有效性,对于过去的模型来说,这是一个巨大的挑战。
本文提出基于图的 QA 模型,将多个文本转换为图,其中的节点是实体,边是实体之间的关系(多源文本->单个图谱),接着使用一个图卷积网络对实体图中带有关系感知的节点做表示学习。而后在图和带有multi-level feature的query之间构建一个双向attention,用于最后的预测。
作者总结本文贡献如下:
在query和图之间使用一个双向attention建立基于query感知的表示学习用于阅读理解;
利用multi-level feature参与理解关系,同于图节点的GCN表示学习过程。
首先,作者正式定义多跳QA任务(以QAngarooWIKIHOP数据集为例)如下:
给定一个文档集包含N个文档,任务目标是对于query(包
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。