当前位置:   article > 正文

深度学习与自然语言处理教程(4) - 句法分析与依存解析(NLP通关指南·完结)_深度学习中句子分析的主要任务

深度学习中句子分析的主要任务

ShowMeAI研究中心


句法分析与依存解析
本系列为斯坦福CS224n《自然语言处理与深度学习(Natural Language Processing with Deep Learning)》的全套学习笔记,对应的课程视频可以在 这里 查看。

句法分析与依存解析
ShowMeAI为CS224n课程的全部课件,做了中文翻译和注释,并制作成了 GIF动图!点击 第5讲-句法分析与依存解析 查看的课件注释与带学解读。更多资料获取方式见文末。


概述

CS224n是顶级院校斯坦福出品的深度学习与自然语言处理方向专业课程,核心内容覆盖RNN、LSTM、CNN、transformer、bert、问答、摘要、文本生成、语言模型、阅读理解等前沿内容。

内容要点

  • Dependency Grammar
  • Dependency Structure
  • Neural Dependency Parsing
  • 依存解析
  • 依存句法
  • 语法依赖

1.依存语法与依存结构

与编译器中的解析树类似,NLP中的解析树是用于分析句子的句法结构。使用的结构主要有两种类型——短语结构依存结构

短语结构文法使用短语结构语法将词组织成嵌套成分。后面的内容会展开对它做更详细的说明。我们现在关注依存语法。

句子的依存结构展示了单词依赖于另外一个单词 (修饰或者是参数)。词与词之间的二元非对称关系称为依存关系,描述为从head (被修饰的主题) 用箭头指向dependent (修饰语)。一般这些依存关系形成树结构,他们通常用语法关系的名称 (主体,介词宾语,同位语等)。

Bills on ports and immigration were submitted by Senator Brownback, Republican of Kansas. 依存树的例子如下图所示:

依存树的示例

有时,在依存树的头部增加一个假的ROOT节点,这样每个单词都依存于唯一一个节点。

1.1 依存分析

依存语法是给定一个输入句子 S S S,分析句子的句法依存结构的任务。依存句法的输出是一棵依存语法树,其中输入句子的单词是通过依存关系的方式连接。

正式一点定义,依存语法问题就是创建一个输入句子的单词 S = w 0 w 1 ⋯ w n S=w_{0}w_{1} \cdots w_{n} S=w0w1wn (其中 w 0 w_{0} w0 是 ROOT) 到它的依存语法树的映射图 G G G。最近几年提出了很多以依存句法为基础的的变体,包括基于神经网络的方法,我们将会在后面介绍。

确切地说,在依存语法中有两个子问题:

  • 学习:给定用依赖语法图标注的句子的训练集 D D D,创建一个可以用于解析新句子的解析模型 M M M
  • 解析:给定解析模型 M M M 和句子 S S S,根据 M M M 得到 S S S 的最优依存语法图

1.2 基于转移的依存分析

Transition-based 依存语法依赖于定义可能转换的状态机,以创建从输入句到依存句法树的映射。

  • 学习」问题是创建一个可以根据转移历史来预测状态机中的下一个转换的模型。
  • 解析」问题是使用在学习问题中得到的模型对输入句子构建一个最优的转移序列

大多数 Transition-based 系统不会使用正式的语法。

1.3 Greedy Deterministic Transition-Based Parsing

这个系统是由 Nivre 在 2003 年提出,与当时的常用方法截然不同。

这个转换系统是一个状态机,它由状态和这些状态之间的转换组成。该模型导出了从初始状态到几种终端状态之一的一系列转换。

1) 状态

对任意句子 S = w 0 w 1 ⋯ w n S=w_{0}w_{1} \cdots w_{n} S=w0w1wn,一个状态可以描述为一个三元组 c = ( σ , β , A ) c=(\sigma, \beta,A) c=(σ,β,A)

  • ① 来自 S S S 的单词 w i w_{i} wi 的堆 σ \sigma σ

  • ② 来自 S S S 的单词 w i w_{i} wi 的缓冲区 β \beta β

  • ③ 一组形式为 ( w i , r , w j ) (w_{i},r,w_{j}) (wi,r,wj) 的依存弧,其中 w i , w j w_{i},w_{j} wi,wj 是来自 S S S,和 r r r 描述依存关系。

因此,对于任意句子 S = w 0 w 1 ⋯ w n S=w_{0}w_{1} \cdots w_{n} S=w0w1wn

  • ① 一个形式为 ( [ w 0 ] σ , [ w 1 , ⋯   , w n ] β , ∅ ) ([w_{0}]_{\sigma},[w_{1}, \cdots ,w_{n}]_{\beta},\varnothing) ([w0]σ,[w1,,wn]β,) 的初始状态 c 0 c_{0} c0 (现在只有 ROOT 在堆 σ \sigma σ 中,没有被选择的单词都在缓冲区 β \beta β 中。

  • ② 一个形式为 ( σ , [ ] β , A ) (\sigma,[]_{\beta},A) (σ,[]β,A) 的终点状态。

2) 转移

在状态之间有三种不同类型的转移:

  • S H I F T SHIFT SHIFT:移除在缓冲区的第一个单词,然后将其放在堆的顶部 (前提条件:缓冲区不能为空)。

  • L e f t - A r c r Left\text{-}Arc_{r} Left-Arcr:向依存弧集合 A A A 中加入一个依存弧 ( w j , r , w i ) (w_{j},r,w_{i}) (wj,r,wi),其中 w i w_{i} wi 是堆顶的第二个单词, w j w_{j} wj 是堆顶部的单词。从栈中移除 w i w_{i} wi (前提条件:堆必须包含两个单词以及 w i w_{i} wi 不是 ROOT )

  • R i g h t - A r c r Right\text{-}Arc_{r} Right-Arcr:向依存弧集合 A A A 中加入一个依存弧 ( w i , r , w j ) (w_{i},r,w_{j}) (wi,r,wj),其中 w i w_{i} wi 是堆顶的第二个单词, w j w_{j} wj 是堆顶部的单词。从栈中移除 w j w_{j} wj (前提条件:堆必须包含两个单词)

下图给出了这三个转换的更正式的定义:

依赖解析的转换

1.4 神经网络依存解析器

虽然依赖项解析有很多深层模型,这部分特别侧重于贪心,基于转移的神经网络依存语法解析器。与传统的基于特征的判别依存语法解析器相比,神经网络依存语法解析器性能和效果更好。与以前模型的主要区别在于这类模型依赖稠密而不是稀疏的特征表示。

我们将要描述的模型采用上一部分中讲述的标准依存弧转换系统。最终,模型的目标是预测从一些初始状态 c c c 到一个终点状态的转换序列,对模型中的依存语法树进行编码的。

由于模型是贪心的,它基于从当前的状态 c = ( σ , β , A ) c=(\sigma, \beta, A) c=(σ,β,A) 提取特征,然后尝试一次正确地预测一次转移 T ∈ { S H I F T , L e f t - A r c r , R i g h t - A r c r } T\in \{SHIFT, Left\text{-}Arc_{r},Right\text{-}Arc_{r}\} T{SHIFT,Left-Arcr,Right-Arcr}。回想一下, σ \sigma σ 是栈, β \beta β 是缓存, A A A 是对于一个给定的句子的依赖弧的集合。

1) 特征选择

根据该模型所需的复杂性,定义神经网络的输入是灵活的。对给定句子 S S S 的特征包含一些子集:

  • S w o r d S_{word} Sword:在堆 σ \sigma σ 的顶部和缓冲区 β \beta β S S S 中一些单词的词向量 (和它们的依存)。

  • S t a g S_{tag} Stag:在 S S S 中一些单词的词性标注 ( POS )。词性标注是由一个离散集合组成: P = { N N , N N P , N N S , D T , J J , ⋯   } \mathcal{P}=\{NN,NNP,NNS,DT,JJ, \cdots \} P={NN,NNP,NNS,DT,JJ,}

  • S l a b e l S_{label} Slabel:在 S S S 中一些单词的依存标签。依存标签是由一个依存关系的离散集合组成: L = { a m o d , t m o d , n s u b j , c s u b j , d o b j , ⋯   } \mathcal{L}=\{amod,tmod,nsubj,csubj,dobj, \cdots \} L={amod,tmod,nsubj,csubj,dobj,}

对每种特征类型,我们都有一个对应的将特征的 one-hot 编码映射到一个 d d d 维的稠密的向量表示的嵌入矩阵。

  • S w o r d S_{word} Sword 的完全嵌入矩阵是 E w ∈ R d × N w E^{w}\in \mathbb{R}^{d\times N_{w}} EwRd×Nw,其中 N w N_{w} Nw 是字典/词汇表的大小。

  • POS 和依存标签的嵌入矩阵分别为 E t ∈ R d × N t E^{t}\in \mathbb{R}^{d\times N_{t}} EtRd×Nt E l ∈ R d × N l E^{l}\in \mathbb{R}^{d\times N_{l}} ElRd×Nl,其中 N t N_{t} Nt N l N_{l} Nl 分别为不同词性标注和依存标签的个数。

最后,定义从每组特征中选出的元素的数量分别为 n w o r d n_{word} nword n t a g n_{tag} ntag n l a b e l n_{label} nlabel

2) 特征选择的例子

作为一个例子,考虑一下对 S w o r d S_{word} Sword S t a g S_{tag} Stag S l a b e l S_{label} Slabel 的选择:

  • S w o r d S_{word} Sword:在堆和缓冲区的前三个单词: s 1 , s 2 , s 3 , b 1 , b 2 , b 3 s_{1},s_{2},s_{3},b_{1},b_{2},b_{3} s1,s2,s3,b1,b2,b3。栈顶部两个单词的第一个和第二个的 leftmost / rightmost 的子单词: l c 1 ( s i ) , r c 1 ( s i ) , l c 2 ( s i ) , r c 2 ( s i ) , i = 1 , 2 lc_{1}(s_{i}),rc_{1}(s_{i}),lc_{2}(s_{i}),rc_{2}(s_{i}),i=1,2 lc1(si),rc1(si),lc2(si),rc2(si),i=1,2。栈顶部两个单词的第一个和第二个的 leftmost of leftmost / rightmost of rightmost 的子单词: l c 1 ( l c 1 ( s i ) ) , r c 1 ( r c 1 ( s i ) ) , i = 1 , 2 lc_{1}(lc_{1}(s_{i})),rc_{1}(rc_{1}(s_{i})),i=1,2 lc1(lc1(si)),rc1(rc1(si)),i=1,2 S w o r d S_{word} Sword 总共含有 n w o r d = 18 n_{word}=18 nword=18 个元素。

  • S t a g S_{tag} Stag:相应的词性标注,则 S t a g S_{tag} Stag 含有 n t a g = 18 n_{tag}=18 ntag=18 个元素。

  • S l a b e l S_{label} Slabel:单词的对应的依存标签,不包括堆/缓冲区上的 6 6 6 个单词,因此 S l a b e l S_{label} Slabel 含有 n l a b e l = 12 n_{label}=12 nlabel=12 个元素。

注意我们使用一个特殊的 N U L L NULL NULL 表示不存在的元素:当堆和缓冲区为空或者还没有指定依存关系时。

对一个给定句子例子,我们按照上述的方法选择单词,词性标注和依存标签,从嵌入矩阵 E w , E t , E l E^{w},E^{t},E^{l} Ew,Et,El 中提取它们对应的稠密的特征的表示,然后将这些向量连接起来作为输入 [ x w , x t , x l ] [x^{w},x^{t},x^{l}] [xw,xt,xl]

在训练阶段,我们反向传播到稠密的向量表示,以及后面各层的参数。

3) 前馈神经网络模型

(关于前馈神经网络的内容也可以参考ShowMeAI的对吴恩达老师课程的总结文章深度学习教程 | 神经网络基础深度学习教程 | 浅层神经网络深度学习教程 | 深层神经网络

这个神经网络包含一个输入层 [ x w , x t , x l ] [x^{w},x^{t},x^{l}] [xw,xt,xl],一个隐藏层,以及具有交叉熵损失函数的最终 softmax 层。

我们可以在隐藏层中定义单个权值矩阵,与 [ x w , x t , x l ] [x^{w},x^{t},x^{l}] [xw,xt,xl] 进行运算,我们可以使用三个权值矩阵 [ W 1 w , W 1 t , W 1 l ] [W^{w}_{1},W^{t}_{1},W^{l}_{1}] [W1w,W1t,W1l],每个矩阵对应着相应的输入类型,如下图所示。

然后我们应用一个非线性函数并使用一个额外的仿射层 [ W 2 ] [W_{2}] [W2],使得对于可能的转移次数 (输出维度) ,有相同数量的 softmax 概率。

前馈神经网络模型

  • Softmax layer: p = softmax ⁡ ( W 2 h ) p=\operatorname{softmax}\left(W_{2} h\right) p=softmax(W2h)
  • Hidden layer: h = ( W 1 w x w + W 1 t x t + W 1 l x l + b 1 ) 3 h=\left(W_{1}^{w} x^{w}+W_{1}^{t} x^{t}+W_{1}^{l} x^{l}+b_{1}\right)^{3} h=(W1wxw+W1txt+W1lxl+b1)3
  • Input layer: [ x w , x t , x l ] \left[x^{w}, x^{t}, x^{l}\right] [xw,xt,xl]

注意在上图中,使用的非线性函数是 f ( x ) = x 3 f(x)=x^{3} f(x)=x3

有关 greedy transition-based 神经网络依存语法解析器的更完整的解释,请参考论文:[A Fast and Accurate Dependency Parser using Neural Networks](https://cs.stanford.edu/~danqi/papers/emnlp2014.pdf)。

2.参考资料

ShowMeAI 深度学习与自然语言处理教程(完整版)

ShowMeAI 斯坦福NLP名课 CS224n带学详解(20讲·完整版)

ShowMeAI系列教程精选推荐

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/870570
推荐阅读
相关标签
  

闽ICP备14008679号