赞
踩
ICLR 2024,reviewer评分 6666
f | 在这项工作中,我们将 f 通俗地称为预训练的大型语言模型(LLM) 接受高维离散输入令牌 W 并在相同的令牌空间中产生输出(f : W → W) |
W | 令牌空间 |
G = (V, E) | 图 V 是顶点(或节点)的集合,E ∈ (V × V) 是连接它们的边的集合 |
ZERO-SHOT | 简单地提供模型一个任务描述,并要求它生成所需的输出,无需任何先前的任务训练 |
FEW-SHOT | 为模型提供少量任务示例及其期望输出。 然后模型从这些示例中学习,以便在新输入上执行任务 |
CoT | 为模型提供一系列示例,每个示例展示如何逐步解决任务。 然后模型学习生成其CoTs来解决新问题 |
ZERO-SHOT CoT | 与CoT提示类似,但它不需要任何先前的训练示例。 相反,模型使用简单的提示来生成其自己的CoTs 使用prompt:”Let’s think step by step“ |
COT-BAG | 通过在图描述后附加“Let’s construct a graph with the nodes and edges first” |
• R1: LLMs 在基本图任务上表现不佳(§3.1)。
• R2: 图编码函数对LLM图推理有显著影响(§3.1)。
• R3: 模型容量对LLMs的图推理能力有显著影响(§3.4)。
关于边的编码,检查了以下技术:
应用编码器在几乎所有任务上都优于图编码,尽管两个编码器都有相同的图编码函数,只是在提问方式上略有不同
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。