赞
踩
本文针对大型语言模型(LLMs)在处理深度和负责任的推理任务时常见的幻觉问题进行研究,特别是在需要深层次逻辑链和多跳知识推理的场景中。为了解决这些问题,作者提出通过结合外部知识图谱(KGs)来增强LLMs的推理能力。
研究的核心目标是开发一种新的算法框架“Think-on-Graph”(ToG),该框架通过在知识图谱上进行动态探索和推理,使LLMs能够进行更深入和负责任的推理。ToG框架的目标是提供一种灵活的、无需额外训练成本的解决方案,以提高模型在知识密集型任务中的表现。
论文详细回顾了使用LLMs进行推理的现有方法,特别强调了链式思考(Chain-of-Thought)和自我一致性(Self-Consistency)等技术。此外,文章还探讨了知识图谱在增强LLMs推理能力方面的作用,分析了将KGs作为外部知识源用于减轻LLMs幻觉问题的各种方法。
ToG开始于定义问题的初始实体,接着利用LLM对这些实体在KG中的相应三元组进行动态检索。这一过程涉及到从KG中提取与问题直接相关的信息,并构建可能的推理路径。举个例子:
ToG采用了一个三阶段的推理框架:初始化、探索和推理。在初始化阶段,ToG识别问题中的关键实体并定位它们在KG中的位置。探索阶段通过beam search算法迭代地探索多个可能的推理路径。最后,在推理阶段,LLM评估当前的推理路径是否足够回答问题,如果不够则继续探索,直到找到满足条件的答案或达到搜索的最大深度。流程如下:
同时,本文还提出了TOG的变体ToG-R,即“Think-on-Graph with Relation-based reasoning”(基于关系的思考图推理),专注于利用关系链进行推理。与基本的ToG框架主要通过实体和它们的三元组进行推理不同,ToG-R更加专注于利用从知识图谱(KG)中提取的关系来推动问题的解答。
ToG-R的优点:
实验设计部分使用了多个KBQA数据集来评估ToG的性能,包括CWQ和WebQSP等。实验中,ToG与现有的基于提示的方法和微调方法进行了比较:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。