赞
踩
抽取式摘要可谓是一项很常见的NLP任务,但是由于缺乏训练语料使得这项任务比较难进行train,可是我们知道英文的相关数据集其实很多,于是可以通过跨语态的技术来辅助目标语言的抽取摘要学习。即利用英语的数据集作为监督信息来对齐学习目标语言,进而达到目标语言的监督学习。
今天来介绍的这篇就是解决这个问题的,一起来看下吧~
论文链接:https://arxiv.org/pdf/2204.13512v1.pdf
既然想利用跨语态,那其实首先要解决的就是怎么对齐语种。作者这里借助了两个常见的方法:
Word Replacement (WR):单词替换即从英文句子中随机选取一些word,然后通过词典用目标语言单词替换。
Machine Translation (MT) :这个就很好理解了,直接借助翻译工具进行整句翻译。
接下来说说标签的事,既然要进行监督学习就得有label,具体到抽取式摘要这个任务,其实就是一个分类任务,假设有一个待抽取摘要的英文doc D,其对应的摘要是S,就是说D中的每个句子其实是一个二分类,在S中的label就是1不在的就是0,作者结合跨语态一共设计了4,种label如下:
图中EN代表英文,FR代表目标语言,可以看到一共有a,b,c,d四种label。
首先看a就是很简单的英文原始监督语料,b是利用MT分别将D和S翻译成目标语言,c是利用MT将D翻译成目标语言然后利用WR(100%替换)将S替换成目标语言,d是保持D不变对于S先利用MT翻译然后再利用WR回译为英文。
除了上面的,作者还增加了一个Neural Label如下
这里公式和符号有点多,我们从上到下一点点来看,第一个公式也即(4)其实就是过了transformer结构得到的表征,U是上述abcd四种情况的集合,对于在U的就是过了模型结构后的概率,不在的直接就是0,第二个公式就是pooling了一下,第三个公式就是得到Neural Label的关键,第四个公式就是归一化了一下,因为对于抽取式摘要结果就是预测一个概率大于0.5的就认为是摘要保留,所以这个加了一个0.5。
有了上述的准备后,下面就可以进行监督学习了,具体的Loss如下
CE是交叉熵,第一个的label句子的非0即1,第二个的l如前面所讲,后面两个句子分别是非pooling和pooling方式,其label也很简单就是在abcd就是1不在就是0。
更多详细的结果可以看paper
不仅是摘要抽取,其他很多NLP任务其实都存在Zero-Shot问题,而诸如英文等语料非常多,所以可以考虑使用跨语态的方法来辅助增强学习,但是说实话确实有难度,具体是不是有效还是以实验结果为准吧。不论怎样跨语态是一个可以实验的思路吧,而本篇paper的idea大家可以借鉴一下。
欢迎关注,下期再见啦~
欢迎关注笔者微信公众号:
github:
Mryangkaitong · GitHubhttps://github.com/Mryangkaitong
知乎:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。