赞
踩
semantic parsing,语义解析,从名称上来说,是一种相对于语法分析级别上更为高层的分析。具体来说,通常指的是将自然语言转换成为机器可以理解的意义表示。这种机器可以理解的意义表示,通常指逻辑形式(Logic Forms)。以下给出一个范例说明:
- NL(natural language): article published in 1950
- CF(canonical form): article whose publication date is 1950
- LF(logic form): get[[lambda,s,[filter,s,pubDate,=,1950]],article]
- DT(derivation tree): s0(np0 (np1 (typenp0), cp0 (relnp0, entitynp0))
- DS(derivation seqs): s0 np0 np1 typenp0 cp0 relnp0 entitynp0
本文调研角度,主要侧重于semantic parsing这个任务的当前进展形式如何,了解在各个常用的实验数据集上的the-state-of-the-art的方法发展等。
本文涉及的论文集合主要包含的是2015~2017年在ACL,EMNLP等会议上的文章,其中做了一些筛选,可能有所遗漏。
在所调研的文章中,其中实验使用较广的数据集有:GEO,JOBs,WebQuestions,WebQuestionsSP,WIKITABLEQUESTIONS,OVERNIGHT等。接下来从在从各个数据集上出发,做一个 state-of-the-art的报告:
GEO DATA:89.3
构建更多的训练数据:在Data recombination for neural semantic parsing这篇文章中,基于 seq-to-seq 的 RNN 模型,结合 Attention-based Copying 机制,对应的是将一些可能没有转换规则的word直接输出,而不是再去从softmax 层去获取输出。这一点可以将 RNN-based的方法从74.6提升至85.0。本文更为重要的贡献是从给定的初始训练集中,利用同步上下文文法,以及抽象实体等方式,生成更多的in-domain的训练样例,使得模型获得了提升。
JOBs DATA:90.0
不要手工特征,DL使我 happy:在 Language to logical form with neural attention一文中,作者利用 RNN以及注意力机制构建了seq-to-seq 模型,已经在此基础上构建了一个 tree-decoder,即为 seq-to-tree。其中 seq-to-tree model 获得了在神经网络方法上的state-of-the-art,在此之前,Percy liang(2013) 一篇基于DCS-L 的方法拥有更好的性能,但需要一系列手工特征设计。
FREE:79.2
标注,不存在的:Large-scale semantic parsing without question answer pairs。在之前提过的方案中,训练实例是<sentence,logical forms>,这种形式需要的代价往往较大;还有一些人提到的方案面向 question-an
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。