当前位置:   article > 正文

【NLP】近期必读ICLR 2021相关论文

iclr自然语言处理论文

导读

本期的关注焦点是NLP的6篇论文。接下来我们还将精选模型压缩、预训练等热点领域,为大家带来系列论文解读,敬请关注。点击文末“阅读原文”,获取正在接受盲审的论文列表。

NLP

CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for Natural Language Understanding

本文设计了提出对当前在NLP领域下针对数据增广场景下如何生成更多高质量和更多样的数据及如何提升模型效果提出统一的模型,首先提出利用统一的组合策略对已有生成策略融合,另一方面借用对比思想,将生成的数据与训练中全局的数据做对比以更好提升训练质量。

论文链接:https://openreview.net/forum?id=Ozk9MrX1hvA

Contrastive Learning with Stronger Augmentations

文章指出现有的对比学习方法中,一些数据增强的操作可能会导致变换后的图像与原图的差异过大,强行让网络提取出相似的特征反而会减弱自监督学习的效果。作者在文中提出的解决方法是,将数据的增广操作划分为两大类,一类是不会显著改变图像视觉效果,叫做Weaker Augmentations;另一类是可能使图像发生非常大的变化的,叫做Strongerer Augmentations。在训练网络的时候,增加了一个新的损失函数,不是直接限制变换图像与原图的特征,而是通过优化原图与弱变换图像、弱变换图像与强变换图像之间的分布,达到特征学习的目的,消除上述的影响。

论文链接:https://openreview.net/forum?id=KJSC_AsN14

Improving Abstractive Dialogue Summarization with Conversational Structure and Factual Knowledge

在对话抽象摘要任务中,对长距离跨句关系进行捕获是必要的。此外,生成的摘要会受到虚假事实的影响。本文提出了一种知识图增强的双拷贝网络(KGEDC),它是一种基于会话结构和事实知识的抽象对话和化框架。采用序列编码器提取局部特征,用图编码器通过稀疏关系图自注意网络整合全局特征,相互补充。此外,在解码过程中还设计了一种双重复制机制,从原文本和事实中共同生成摘要。

论文链接:https://openreview.net/forum?id=uFk038O5wZ

CorDial: Coarse-to-fine Abstractive Dialogue Summarization with Controllable Granularity

本文提出一种由coarse-to-fine的对话抽象摘要生成策略,首先生成摘要草稿,然后生成最终摘要。本文也提出了控制最终摘要粒度的简单策略,可以通过预测和突出显示源文本中不同的文本跨度来自动控制给定对话生成的摘要语句的数量。

论文链接:https://openreview.net/forum?id=Uf_WNt41tUA

Learning Contextualized Knowledge Graph Structures for Commonsense Reasoning

为了解决外部知识图中缺少 facts 和上下文知识图中存在冗余 facts 的问题,本文提出了一种常识推理的神经符号框架 HGN。HGN 可以联合生成新边的特征,优化图结构,并学习图网络的参数,实现动态图推理。实验结果和用户研究证明了该模型的有效性。

论文链接:https://openreview.net/forum?id=lJuOUWlAC8i

Deep Encoder, Shallow Decoder: Reevaluating Non-autoregressive Machine Translation

本文通过理论研究和实验证明,通过简单的层分配策略(深层编码器-浅层解码器)可以大大加快自回归神经机器翻译的速度。与强非自回归模型相比,深-浅自回归模型以近似的速度实现了翻译质量的显着提高。另外,深层编码器-浅层解码器的模型可以用于任何序列到序列任务,包括大规模预训练。

论文链接:https://openreview.net/forum?id=KpfasTaLUpq

来自:RUC AI BOX

  1. 下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!
  2. 后台回复【五件套】
  3. 下载二:南大模式识别PPT
  4. 后台回复【南大模式识别】

说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐两个专辑给大家:

专辑 | 李宏毅人类语言处理2020笔记

专辑 | NLP论文解读

专辑 | 情感分析

  1. 整理不易,还望给个在看!
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/351706
推荐阅读
相关标签
  

闽ICP备14008679号