赞
踩
友情提示:阅读作业的笔记整理,文章来源会议ACL2020,由百度和中科大发表的SKEP模型。初读此类论文,靠着百度磕磕巴巴读的,未来发现理解错误会进行修改,欢迎指正。
Recently, sentiment analysis has seen remarkable advance with the help of pre-training approaches. However, sentiment knowledge, such as sentiment words and aspect-sentiment pairs, is ignored in the process of pre-training, despite the fact that they are widely used in traditional sentiment analysis approaches. In this paper, we introduce Sentiment Knowledge Enhanced Pre-training (SKEP) in order to learn a unified sentiment representation for multiple sentiment analysis tasks. With the help of automatically-mined knowledge, SKEP conducts sentiment masking and constructs three sentiment knowledge prediction objectives, so as to embed sentiment information at the word, polarity and aspect level into pretrained sentiment representation. In particular, the prediction of aspect-sentiment pairs is
converted into multi-label classification, aiming to capture the dependency between words in a pair. Experiments on three kinds of sentiment tasks show that SKEP significantly outperforms strong pre-training baseline, and achieves new state-of-the-art results on most of the test datasets. We release our code at https://github.com/baidu/Senta.
SKEP名为情感知识增强预训练模型,就是将多种情感知识融合,包括不同领域的知识和不同类型的知识,从而达到可以使用同一个预训练模型处理多个情感分析的任务。该文出发点是目前情感任务必须分不同的领域使用不同的模型比较繁琐,以及发现方面-情感词作为一个token的时候效果会比拆开单独作2个token效果更好,从而将三个目标优化融入到transfomer中,达到模型的性能提高,在大部分数据集中都超过之前的SOTA。
结合多种情感知识并且提高预训练模型性能。
传统的情感分析任务分别研究不同类型的情感知识,针对模型众多这个问题,该文想为不同的情感分析任务提出一个统一的情感分析模型,争取在不同的任务中取得良好的效果。
PMI参考文献: Peter D Turney. 2002. Thumbs up or thumbs down?:semantic orientation applied to unsupervised classification of reviews. InACL 2002.
下图为SKEP中使用的种子词
单词对的共现由PMI计算如下:
结果:挖掘好的情感知识包含带有极性的情感词和方面词-情感词对。
与以前的随机词mask不同:SKEP基于情感知识mask。
1. Sentiment Detection with Knowledge 使用情感知识进行情感检测
情感检测:通过输入序列和情感知识进行匹配识别情感词和方面词-情感词对。
2. Hybrid Sentiment Masking 混合情感掩蔽
情感检测为输入序列产生三种类型的token,损坏(屏蔽)序列的过程按照一下的步骤进行:
定义了三个情感预训练目标函数,训练transformer编码器恢复被替换的情感信息。
1. 情感词预测:情感词预测目标函数Lsw代表原始情感词xi出现的最大概率
2. 单词极性预测
3. 方面-情感对预测:比情感词能揭露更多的信息。
采用多标签分类进行方面-情感对预测。使用分类标记的最终状态[CLS]。
预训练的过程在Amazon-2数据集中的句子上进行。
与12层RoBERTa base以及24层的RoBERTa large对比。如下图所示,使用了SKEP后,性能有了较大提高。
消融分析
注意层可视化
SKEP显著优于RoBERTa,在句子级、观点抽取以及方面级的情感分析任务上效果都很好,另外本文验证了将情感知识运用于预训练中是非常必要。
1. transformer学习
2. SKEP模型使用
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。