赞
踩
论文笔记:《Retrieve-Rewrite-Answer:一个知识图到文本的增强LLM知识图提问框架》
论文地址:https://arxiv.org/abs/2309.11206
代码地址:Retrieve-Rewrite-Answer(github.com)
目录
尽管大型语言模型 (LLM) 在知识密集型任务上具有竞争力,但在记忆所有世界知识(尤其是长尾知识)方面仍然存在局限性。在本文中,我们研究了知识图谱增强语言模型方法,用于解决需要丰富世界知识的知识图谱问答(KGQA)任务。现有的工作表明,检索KG知识,以提高LLM提示可以显着提高LLM在KGQA的性能。然而,这些方法缺乏KG知识的良好形式的语言化,即,它们忽略了KG表示和文本表示之间的差距。为此,本文提出了一个对答案敏感的KG-to-Text的方法,可以将KG知识转化为对KGQA最有用的文本化陈述。基于这种方法,我们提出了一个KG-to-Text增强的LLM框架来解决KGQA任务。对几个KGQA基准的实验表明,所提出的KG-to-Text增强LLMs方法在答案的准确性和知识陈述的有用性方面优于以前的KG增强的 LLMs方法。
大型语言模型 (LLM) 因其在各种应用中的卓越能力而在自然语言处理中越来越受欢迎。尽管LLM在zero-shot场景中表现出了卓越的能力,但它们在一些知识密集型任务上的表现还不够令人满意。这表明LLM中的巨大参数无法存储世界上所有的知识。LLM在回答问题时仍然存在幻觉和事实不准确等问题。
前人工作:(引入外部知识来增强语言模型)
近期的努力旨在利用知识图谱提升LLMs在KGQA上的能力,在这些研究中,从知识图谱中提取与问题相关的三元组,并利用线性表达或现成的KG-to-Text模型等技术将其转换为文本格式。通过预定义的模板,将三元组和问题的文本表示转换为知识增强型提示。然后将该提示输入到问答型LLMs中,以生成更可靠的答案。但它们忽视了知识表示格式对LLMs在KGQA上性能的影响。
最近研究可以分为两种主要方法:
如图所示,Retrieve-Rewrite-Answer框架包含三个步骤:子图检索、KG-to-Text和知识文本增强推理。
Subgraph Retrieval(子图检索):包括三个步骤:跳数预测、关系路径预测和元组采样.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。