赞
踩
NAACL,2021
https://arxiv.org/pdf/2010.12773.pdf
本文提出了一种新的基于弱监督结构的 text-to-SQL 的预训练框架(STRUG),该框架能够有效地学习基于平行 text-table 语料库的对齐。为此设置一组新的预测任务:列定位、值定位和列-值映射,并使用弱监督训练,不需要复杂的SQL注释。
此外,基于 Spider 创建了一个新的评估集 Spider-Realistic,并显式地删除了列名,并采用两个现有的单数据库 text-to-SQL 数据集。
STRUG 在 Spider 和现实评估集上的性能显著优于 B E R T L A R G E BERT_{LARGE} BERTLARGE,在 WikiSQL 上带来一致的改进。
Pretraining for Text-Table Data:
目前,还缺乏充分利用平行 text-table 语料库中自然存在的对齐知识的模型,这也是本文研究的目标。
使用与BERT相同的模型架构,并为三个基于结构的任务添加简单的分类层。
将NL描述和列头拼接,送入BERT,得到NL描述每个token的上下文表示 { x i } \left\{x_{i}\right\} {xi} 和 每个列的上下文表示 { c j } \left\{c_{j}\right\} {cj}。
总损失: L = L c + L v + L c v \mathcal{L}=\mathcal{L}_{c}+\mathcal{L}_{v}+\mathcal{L}_{c v} L=Lc+Lv+Lcv
ToTTo 包含120,761个NL描述和使用启发式方法从维基百科自动收集的相应的web表。此外,它还提供了单元级注释,突出显示(黄色高亮)了描述中提到的单元,并删除了不相关或含糊的短语。
如图,
使用两种预训练设置
在这两种设置中,单元值只用于预训练数据的构建,而不是作为预训练模型的输入。
提高泛化能力,还加入了两种数据增强技术。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。