当前位置:   article > 正文

词语之间的语义相似度怎么算_【深度语义匹配模型】原理篇二:交互篇

句子语义相似度交互性模型

a2c26039359261bc36e80d0702c8eb97.png

上期我们介绍了六种表示型的深度语义匹配模型,本期将为大家带来六种交互型的深度语义匹配模型。

一、前篇回顾

上期我们介绍了六种表示型的深度语义匹配模型,表示型的模型更侧重于对表示层的构建,其特点是对将要匹配的两个句子分别进行编码与特征提取,最后进行相似度交互计算。缺点是分别从两个对象单独提取特征,很难捕获匹配中的结构信息。因此可以更早的将两个对象进行交互,获取交互产生的特征,交互型的深度语义匹配模型完美的应用到了交互特征。

二、交互型深度语义匹配模型

交互型模型摒弃后匹配的思路,假设全局的匹配度依赖于局部的匹配度,在输入层就进行词语间的先匹配,并将匹配的结果作为灰度图进行后续的建模,其基本模型结构如下图所示:

083117b4a2d6a759346c164698bf5560.png

交互型匹配模型的特点是:

  1. 捕捉直接的匹配信号,将匹配信号作为特征建模。
  2. 交互层:两文本词与词构成交互矩阵,交互运算类似于 attention,加性乘性都可以。
  3. 表示层:负责对交互矩阵进行抽象表征,CNN、RNN均可。

交互型匹配模型的代表算法有: ARC-II、MatchPyramid、DeepMatch、ESIM、ABCNN、BIMPM等。

2.1 ARC-II

ARC-I,ARC-II 2014年由华为诺亚方舟实验室提出, ARC-I 是表示型匹配模型,上篇有讲解,ARC-II是交互型匹配模型,中文名是卷积网络深度匹配模型,通过中文名称就可以get到两个点:卷积、深度,所以可以理解为多次应用卷积计算来建模,原文传送门https://papers.nips.cc/paper/5550-convolutional-neural-network-architectures-for-matching-natural-language-sentences.pdf

b723bba4be2d63e717e9ce0d5370cfb9.png

句子中每个词表示为词向量后,每个句子构成一个矩阵,用滑动窗口来选择词向量组作为基本单元进行卷积操作。假设有两个句子x和y,首先从sentence x中选取一个向量a,再从sentence y中将每一个向量和a进行卷积操作,通过这种操作,将两个句子中的向量进行两两组合,构成2D矩阵,该矩阵作为两个句子交互作用的一个初步表示。随后的卷积以这个2D矩阵为基础进行“卷积+池化”的操作若干次,最后得到一个描述两个句子整体关联的向量,最终由一个MLP来综合这个向量的每个维度得到匹配值。

ARC-II模型考虑了句子中词的顺序和交互信息,从而可以对两个句子的匹配关系进行相对完整的描述;然而还缺乏对于细微匹配关系的捕捉,在精确匹配上面还存在缺陷。

2.2 PairCNN

这篇文章2015年出自University of Trento,也是用CNN模型对文本进行语义表示。原文传送门:https://dl.acm.org/doi/pdf/10.1145/2766462.2767738

2b3d98d2816fbe8f50cf31fe16f960d9.png

模型先分别对 query 和 document 做卷积和max池化,得到文本的语义向量,接着通过 M 矩阵变换得到语义向量的相似度,然后把 query 语义向量、query&document 的语义相似度、document 语义向量、外部特征拼接成n维向量,外部特征的加入是作者考虑到可能无法在词表中找到某些专有名词,从而会造成信息缺失,因此文中使用word overlap(单词重叠)和IDF word overlap(IDF加权后的单词重叠)作为外部特征,以加强query和document之间的关联关系。将拼接好的n维向量输入一个非线性变换隐层,最终用 softmax做概率归一化。用softmax 的输出作为监督信号,采用 cross-entropy 作为损失函数进行模型训练。

本文的改进点包括:1. 将 query 和 document 的语义向量及其相似度拼接成新的特征向量输入MLP;2.可以在模型的输入向量中方便地融入外部特征。

2.3 MatchPyramid

虽然ARC-II和PairCNN更早地让两段文本进行了交互,但是这个交互的意义其实并不明确,层次化的过程也比较模糊。MatchPyramid重新定义了两段文本交互的方式---- 匹配矩阵,该模型2016年由中科院提出,原文传送门https://arxiv.org/abs/1602.06359。作者基于此模型,在2017.3-2017.6 Kaggle的Quora Question Pairs 比赛上,取得了全球第四的好成绩。

3c1f6697f18edf7ba689524c5ac91f20.png

MatchPyramid模型的核心思想是层次化的构建匹配过程,借鉴了CNN在处理图像时的原理,因为CNN就是在提取像素、区域之间的相关性,进而提取图像的特征。我们看看文中举的例子:Query1:down the ages dumplings and noodles were popular in China. Query2: down the ages noodles and dumplings were famous Chinese food. 作者将每个单词看成一个像素,那么对于两个单词数为M,N的句子,构建相似度矩阵的大小就是M*N。

2.3.1匹配矩阵的构造

文中提出了三种构造匹配矩阵的方法:

  1. Indicator: 0-1类型,每个序列对应的词相同为1,不同为0。
  2. Cosine: cosine距离,使用预训练的Glove将词转为向量,之后计算序列对应的词的cosine距离。
  3. Dot Product: 点积,同上,但是将cosine距离改为点积距离。
2.3.2卷积层细节

172b4c36ee515bd5b34642506174899a.png

利用两层的CNN对相似度矩阵进行特征抽取,这里要注意的是由于上一层的相似度矩阵shape不一致,在第一层CNN后面进行maxpool的时候,要使用动态pool。最后用两层的全连接对CNN的结果进行转换,使用sigmoid激活,使用softmax函数得到最终分类概率。

总的来说,通过多层的卷积,MatchPyramid可以在单词或者句子级别自动捕获重要的匹配模式。

2.4 ABCNN

AB为Attention-Based,即基于注意力机制的卷积神经网络。这篇文章来自于慕尼黑大学信息语言处理中心,原文传送门:https://www.transacl.org/ojs/index.php/tacl/article/view/831/194。本文的作者也采用了CNN的结构来提取特征,并用attention机制进行进一步的特征处理,作者一共提出了三种attention的建模方法。

ABCNN的基础是BCNN(Bi-CNN),BCNN的网络结构如下图所示,四层分别是:输入层、卷积层、池化层和输出层。

7196cdfe724fefde79d70d6a4e442959.png

BCNN方式就是正常的一个CNN网络架构,并没有进行交互产生交互信息,因此引入了Attention机制,文章提了三种结构:ABCNN-1, ABCNN-2和ABCNN-3.

2.4.1 ABCNN-1

4bb14576532d3629cc26376d2e08774f.png

ABCNN-1是在输入层之后,卷积层之前添加注意力矩阵A,A用来定义两个句子之间词的关系。图中红色矩阵与BCNN的输入层一致,表示word级别的词向量,蓝色矩阵为phrase级,是高一级的词向量表示。蓝色矩阵是由注意力矩阵A和红色词向量矩阵计算生成。注意力矩阵A的计算方式为: 

b7ea121cf3b3dc4ecb7cf0698eac76b1.png

即Matrix A中数值Ai,j的计算是由sentence1第i个单词的向量与sentence2中第j个单词的距离度量。作者使用的是两个向量的欧几里德距离。得到了attention矩阵A,则可以计算句子的attention特征:

5e90ba2321030959a7af48dc209463b0.png

接下来将句子的原始词向量表示和Attention特征表示叠加,输入到卷积层进行计算。

2.4.2 ABCNN-2

0752a24b96ba9844accc799cffad6942.png

ABCNN-2 是在卷积层之后,池化层之前添加注意力矩阵A。其计算方式与ABCNN-1 相同,sentence0第j个词的词权重为a0j,sentence1第j个词的词权重为a1j。 

344aa9866c3bc1c405934bfc62c84320.png

ABCNN-2 模型中的pooling 方法,是根据计算出的Attention权重向量加权求和计算得到的。公式如下:

616ec30c90aec4c2c04bcf549a7a26c0.png

其中表示第i个sentence中第r个词池化后的特征,表示第i句话第r个词卷积后的词向量。剩余层操作和BCNN相同。

2.4.3 ABCNN-3

ea9264f42e0625261199160bee83747c.png

从图中可以看出,ABCNN-3是ABCNN-1和ABCNN-2的结合,卷积层和池化层都添加了attention机制,这里就不再多说了。

2.5 ESIM

2017年提出的ESIM, 全称为Enhanced Sequential Inference Model,该模型本身是用来文本推理的,给定前提p和假设h,判断p和h是否有关联,也可以用来作文本匹配。该模型综合应用了BiLSTM 和注意力机制,在文本匹配中效果十分强大,号称短文本匹配神器。原文传送门https://arxiv.org/abs/1609.06038,下图中左侧为ESIM 的模型结构。

d1f7cd3accb3c23d0152131082cbea30.png

ESIM一共包含四部分,输入层、交互层、聚合层和预测层。

2.5.1 输入层

输入一般可以采用预训练好的词向量或者添加embedding层,接下来就是一个BiLSTM,作用是为embedding做特征提取,最后把其隐藏状态的值保留下来。

02d75dee2eb38590c155831beec6f089.png

2.5.2 交互层

接下来就是需要分析这两个句子之间的联系了,这层是ESIM的点睛之笔, 主要在句子基础上表征了两个句子词语之间的关系,并凸显了某一句中的单词对另一句各单词之间的产生的影响。首先,使用点积的方式计算a句中第i个词和b句中第j个词之间的attention权重。

13ec88515019d666f13898cd9b8d1931.png

然后对两句各单词之间进行交互性计算,该词与另一句子联系越大,则计算出的值也会越大:

9b8bc31d3198bcf10e5a6b62d05df076.png

上述两步称为Local Inference Modelling,相当于先用attention机制计算出a句某一单词和b句中各个单词的权重,然后再将权重赋予b句各个单词,用来表征a句中的该单词,形成一个新的序列,b句亦然。简单来说可以这样理解:a句中有个单词“boy”,首先分析这个词和另一句话中各个词之间的联系,计算得到的结果标准化之后作为权重,用另一句话中的各个词向量按照权重去表示"boy"。

得到了新的序列之后进行差异分析,判断两个句子之间的联系是否足够大,将每句话的原BiLSTM序列和新序列进行差和积操作,并将所有序列拼接起来形成一个序列。这步称为Enhancement of local inference information。

2fd7cf33e0efee7d2447c484048e64c9.png

2.5.3 聚合层

在综合所有信息之后进行一个全局分析,使用一个组合层来合成增强的局部推断信息。此处再用BiLSTM进行一次编码,将新序列信息内容在内部进行一个融合,使用relu函数降低模型复杂度。

fc1096155e6ca4ca2ea41f56b8dd9c0d.png

2.5.4 预测层

对聚合层输出进行一个pooling操作,并将pooling后的结果简单拼接为最后进入分类器的向量。

8d684354d24e4854d48ce0a6773e27f2.png

将向量V放入一个多层感知器进行分类,输出层使用softmax,得到最后的预测结果。

2.6 Bimpm

Bimpm(Bilateral Multi-perspective Matching) 即双向多角度匹配,2017年由IBM提出,原文传送门:https://arxiv.org/pdf/1702.03814.pdf。 相信在阅读了ESIM之后对“双向”有了一定的理解,该模型的亮点在于如何“多角度”进行匹配。

874f3cd1617589fb0e4249d7168692f9.png

2.6.1  输入层

该模型的输入层与ESIM略有差别:字向量经过一层LSTM,取最后一个time作为char embedding ,然后与预训练好的词向量进行拼接,拼接之后经过BiLSTM,保存两个query(P,Q)的每个time-step值。

accfcea402ae010bc06bcd3d9198a09d.png

2.6.2  匹配层

在匹配层,模型采用了4种方法进行匹配BiLSTM输出的上下文向量,每种都是双向的,下面仅从一个方向P->Q解释匹配算法,另一方向与其相同。

1. full-matching:在这种匹配策略中,用P中每一个time step的上下文向量(包含前向和后向)分别与句子Q中最后一个time step的上下文向量(包含前向和后向)计算匹配值,即 0b684ab6378efc29b132b3baabc3b337.png 2. maxpooling-matching:在第一种匹配方法中选取最大的匹配值,即 beeadbcf1a2eb1207f972093a817539e.png 3. attentive-matching:先对P和Q中每一个time step的上下文向量(包含前向和后向)计算余弦相似度,得到相似度矩阵

d278d081465fafb9d495cae6390fdc54.png

然后将相似度矩阵作为Q中每一个time step权重,通过对Q的所有上下文向量(包含前向和后向)加权求和,计算出整个句子Q的注意力向量

2529ea362503e3eee619352fb3816cbc.png

最后,将P中每一个time step的上下文向量(包含前向和后向)分别与句子Q的注意力向量计算匹配值

2ab675704da4a7c1e1c90db24298042d.png

4. max-attentive-matching:与attentive-matching的匹配策略相似,不同之处在于选择句子Q所有上下文向量中余弦相似度最大的向量作为句子Q的注意力向量。
2.6.3  聚合层与输出层

获得16个匹配向量后(P->Q,Q->P各8个),再次使用BiLSTM将两个序列的匹配向量聚合成一个固定长度的匹配向量。经过两层全连接层后,softmax输出最终匹配结果。

三、总结

本文介绍了六种交互型的深度语义匹配模型。交互型匹配模型的共同特点是:不存在单个文本的表达,从模型的输入开始两段文本就进行了交互,得到细粒度的匹配信息。其优点是:保持细粒度的匹配信息,避免在一段文本抽象成一个表达时,细节的匹配信息丢失。但缺点是:

  • 需要大量的有监督的文本匹配的数据训练。
  • 网络复杂,模型训练的时候资源消耗较大,每一对文档都得完全通过一遍网络。

因此这类模型一般都是用于类似问答系统、翻译模型、对话系统这种语义匹配程度高、句式变化复杂的任务中。

说了这么多原理,深度语义匹配模型如何在工业界中应用?下期精彩:【深度语义匹配模型】实践篇:匹配在智能客服中的应用

四、参考文献

  1. http://cjc.ict.ac.cn/online/onlinepaper/pl-201745181647.pdf
  2. https://www.sohu.com/a/140243692_500659
  3. https://blog.csdn.net/ling620/article/details/95468908
  4. https://blog.csdn.net/coraline_m/article/details/78796786
  5. https://zhuanlan.zhihu.com/p/47580077
  6. https://zhuanlan.zhihu.com/p/72403578
  7. https://blog.csdn.net/Xwei1226/article/details/82081583
  8. https://zhuanlan.zhihu.com/p/50160263

作者介绍

卢新洁,2018年毕业于澳大利亚新南威尔士大学,毕业后加入贝壳找房语言智能与搜索部,主要从事NLP及智能客服相关工作。

相关文章

    【深度语义匹配模型】原理篇一:表示型

下期精彩

    【深度语义匹配模型】实践篇:匹配在智能客服中的应用

1d38b4991d756122a0e7738c4fe383e3.png

推荐阅读

AINLP年度阅读收藏清单

【深度语义匹配模型 】原理篇一:表示型

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

太赞了!Springer面向公众开放电子书籍,附65本数学、编程、机器学习、深度学习、数据挖掘、数据科学等书籍链接及打包下载

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。

4498c42b9c4fde5fffa2684160e513f9.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/241252
推荐阅读
相关标签
  

闽ICP备14008679号