当前位置:   article > 正文

论文浅尝 | QA-GNN:结合语言模型与知识图谱进行问答推理

论文浅尝 | QA-GNN:结合语言模型与知识图谱进行问答推理

461a663da308a6e87814becb170735fb.png

笔记整理:项卓怡,浙江大学硕士,研究方向为生化大模型。

链接:https://arxiv.org/abs/2104.06378

Code:https://github.com/michiyasunaga/qagnn

Citation: Yasunaga M, Ren H, Bosselut A, et al. QA-GNN: Reasoning with language models and knowledge graphs for question answering[J]. arXiv preprint arXiv:2104.06378, 2021.

1. 动机

预训练语言模型在自然语言处理领域取得了巨大成功,例如BERTGPT等模型在各种文本理解任务上取得了令人瞩目的性能。然而,这些模型虽然在一般文本处理中表现出色,但在特定领域的应用仍存在一些挑战。特别是在生物医学领域,由于其专业性和复杂性,传统的通用语言模型在处理生物医学文本时可能遇到一些困难。这些困难包括生物医学术语的复杂性、上下文的特殊性以及领域内的专业知识需求等。因此,为了更好地应用自然语言处理技术于生物医学领域,本文开发了一种专门针对生物医学领域的生成预训练转换器(QA-GNN),以解决生物医学文本处理中的挑战和问题。通过深入理解生物医学文本的语义、结构和特点,可以更好地设计和优化语言模型,使其能够在生物医学领域中发挥更大的作用。因此,本文旨在探索并实现一种结合了自然语言处理和生物医学知识的先进模型,为生物医学研究和应用提供更加精确和高效的文本处理工具。

2. 贡献

本文的主要贡献有:

1)将语言模型(LMs)与知识图谱(KGs)整合,以实现QA任务中的全面推理。

2)提出了一种图神经网络(GNN)架构,有效融合了LMsKGs的信息,提高了问答准确性。

3)通过对基准数据集的广泛实验,展示了QA-GNN相对于基线模型的卓越性能。

3. 方法

QA-GNN主要包括以下几部分:

1. 编码QA上下文和检索KG子图:QA-GNN框架的第一步是使用语言模型(LM)组件对QA上下文进行编码。这个编码过程捕捉了输入问题和上下文的语义和句法信息。同时,根据QA上下文中提及的主题实体,检索KG子图。这个子图检索遵循了先前工作中提出的方法,如Feng等人(2020年),确保包含相关知识。

2.QA-GNN两个重要部分:第一个是引入了KG节点关联性评分。这个评分机制旨在衡量KG子图中不同实体在给定QA上下文中的重要性。为了实现这一目标,使用一个预训练的LMKG子图中的每个实体进行评分。评分过程包括将实体与QA上下文连接起来,并使用LM计算其可能性。这种方法提供了一个灵活的框架,可以根据其与QA任务的相关性来为KG信息分配权重。

第二个是联合推理方法。设计了一个联合图表示,将QA上下文和KG信息无缝集成在一起。这个表示包括一个额外的节点,称为QA上下文节点,它连接到KG子图中相关的主题实体。生成的联合图称为工作图,有效地将QA上下文和KG融合为一个统一的结构进行推理。为了促进联合推理,工作图中每个节点的特征都会与之前获得的关联性评分相结合。随后,采用基于注意力的图神经网络(GNN)模块对这个联合表示进行推理。联合推理算法迭代地更新KG实体和QA上下文节点的表示,促进信息交换并填补文本和结构化知识来源之间的差距。

3. 训练和推理:QA-GNN模型采用监督学习方法进行训练,目标是最小化一个预定义的损失函数,该损失函数捕捉了预测答案与真实答案之间的对齐关系。在推理阶段,训练好的模型接受QA上下文作为输入,使用LM组件对其进行编码,检索相关的KG子图,在工作图上进行联合推理,并基于学习到的表示和推理过程生成最终的答案。

总而言之,QA-GNN通过引入关联性评分和联合推理机制,使得可以通过有效利用文本上下文和结构化知识来提高问答性能。

c4f925cdcbe53259208d09df9628048d.png1 QA-GNN

4. 实验

实验在三个QA数据集下评估:CommonsenseQA (Talmor et al., 2019), OpenBookQA (Mihaylov et al., 2018), and MedQA-USMLE (Jin et al.,2021

首先是QA任务实验:针对问题回答(QA)任务进行了实验,通过使用QA-GNN模型对一系列问题进行回答,评估其准确性和回答质量。与RoBERTa-largeFine-tuned LM以及目前存在的LM+KG models比如Relation Network (RN) (Santoro et al., 2017), RGCN (Schlichtkrull et al., 2018), GconAttn (Wang et al., 2019a)等等,以下是在commonsense QA数据集下的表现,此外还有OpenBook QA的实验对比,除了T5unifiedQA使用了更多训练数据和参数,QA-GNN的表现都优于其他模型。

8ce25c503ee4d7c2789dfed7e9a08f00.png

2Commonsense QA上的表现

接下来是消融试验,分别做了(1)、知识图谱关联性评分实验:对KG中的实体进行关联性评分实验,探究在给定QA上下文的情况下,不同实体对问题的相关性程度,以此为基础来调整模型对知识的利用。(2)、联合推理实验:进行了联合推理实验,验证了在联合表示下,模型在结合QA上下文和KG信息时的性能和表现。(3)、对抗性测试实验:针对模型的鲁棒性进行了对抗性测试实验,探究模型在面对干扰性输入或误导性问题时的表现。结果如图3所示。

94d2a74a776ce451732179c12462e56c.png

3Commonsense QA IHdev上进行的消融试验

5. 总结

QA-GNN通过整合语言模型和知识图谱的优势,提供了一种新颖的问答方法。通过利用文本信息和结构化知识,QA-GNN在复杂QA任务中取得了卓越表现,展示了整合推理模型在自然语言理解中的潜力。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

247adf4de784cbdf729844e590e5ffa7.png

点击阅读原文,进入 OpenKG 网站。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/446260
推荐阅读
相关标签
  

闽ICP备14008679号