当前位置:   article > 正文

NLP论文小班学习笔记1_kbs期刊接收率

kbs期刊接收率

时间:2022.1.19
主题:开营仪式

一、课程大纲

1. 必备基础知识:

  • 语言框架:pytroch,python 基础
  • NLP算法:CNN,RNN,Attentiton,Transformer等等

2. 文本分类课程安排

2.1 理论篇–三周

以直播的形式给大家去讲解每篇论文的背景和相关的算法。给大家布置的作业主要涉及相关的论文,然后以论文的五维阅读去完成相应的总结。
具体可见”相关论文“部分

2.2 实验篇–三周

代码教学部分和理论结合,目的在于让大家动手操作学过的论文。
会把代码给到大家,同时在上课的过程当中,主要是对代码的关键部分去进行介绍。课下,要求同学们自己学会去进行调试代码。
记录问题,进行答疑

2.3 论文写作介绍–三周

论文写作这一块,首先会拿两篇范文给大家去进行科研写作的介绍。同时会选取一篇写得较差的论文(以自己的论文为例),我们对它去进行修改。

2.4 总结-实验报告–三周

会给同学布置相应的作业,第1周布置作业,确定选题(3~4个同学一组)
针对分组的同学的作业情况去进行修正。(如果有自己的想法,可以去写一些论文,如果没有的话,老师会给一个特定的课题,然后大家去把这个课题扩展成一篇相应的论文)

二、相关论文

a. 意图分类:

i. DCA: Dialogue Coherence Assessment Without Explicit Dialogue Act Labels.
提出了一个 Dialogue Coherence 的评估方法,把 Dialogue Act 预测任务作为一个子任务用多任务学习去建模Dialogue Coherence。

ⅱ. DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act Recognition and Sentiment Classification
作者:覃立波,车万翔,李扬名,倪旻恒,刘挺
简介:在对话系统中,对话行为识别和情感分类是捕获说话人意图的两个相关任务,其中对话行为和情感可以分别表示显式和隐式意图。现有的大多数系统要么将它们视为单独的任务,要么只是通过隐式共享参数来联合建模两个任务,但没有显示地建模两个任务相互的交互和关系。为了解决这个问题,我们提出了一个深度交互关系网络(DCR-Net),通过引入交互关系层来明确考虑双方的相互关系。并且,可以将提出关系层堆叠起来从而实现双方关系交互的逐渐捕获。此外,我们还彻底研究了不同的关系层及其影响。在两个公共数据集的实验结果显示,我们的模型取得了sota性能。充分的分析实验也验证了提出的关系交互层以及多步交互机制进行显式建模的有效性。

b. 情感分类

i. bc-LSTM-pytorch:Emotion Recognition in Context
i.1 中文讲解网址:https://blog.csdn.net/qq_43202953/article/details/84336220
i.2 摘要
在日常生活中,我们每天都可以通过他人的面部表情来推断这个人今天经历了什么,他的心情是什么样的。如果机器也可以通过人类认识方式来了解他人的情感信息,那将对我们的生活有着更好的影响。然后,当前还没有一个系统可以完成这样的工作。先前关于计算机视觉的研究主要致力于分析面部表情,分为六类基本情感。然而,环境在人类情感认知方面也是有着很重要的决定因素。作者提出了一种“情景情感数据库”EMOTIC,这是一种非受控环境中包含人景的图像数据集。在这些数据集中,将人们的感情分为26类,带有continuous dimensions valence, arousal and dominace. 使用该数据集,作者训练卷积神经网络来联合的分析人以及整个情境下对情感状态的认知信息,以此表明情景在人类情感认知方面的重要性。

ⅱ. DialogueRNN: An Attentive RNN for Emotion Detection in Conversations
ii.1 论文翻译网址:
https://blog.csdn.net/qq_41166278/article/details/108929213
ii.2 摘要
对话中的情感检测是许多应用的必要步骤,包括对聊天历史的 意见挖掘、社交媒体线程、辩论、论证挖掘、了解实时对话中的消费者反馈等。 目前,系统不会通过适应每个话语的说话者来单独对待谈话中的当事人。 在本文中,我们描述了一种基于递归神经网络的新方法,它在整个对话过程中跟踪独立当事人(individual party)的状态,并将这些信息用于情感分类。 我们的模型在两个不同的数据集上的性能远远超过了最先进的水平。

ⅲ. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
论文翻译网址: https://blog.csdn.net/muumian123/article/details/84031163

iv. DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation
iv.1 论文翻译网址:
https://blog.csdn.net/lwgkzl/article/details/103134280
https://blog.csdn.net/qishengmoming/article/details/112980528
摘要:
在本文中,我们提出了对话图卷积网络(DialogueGCN), 其为一个基于图卷积神经网络的ERC方法。我们利用对话者的自我依赖和说话者之间的依赖来为情绪识别中对话的上下文进行建模。通过图网络,DialogueGCN解决了当前基于RNN的方法中存在的上下文传播问题。我们的经验表明,这种方法解决了这些问题。

三、相关会议期刊

  1. EMNLP,CCFB,难度五星。有rebutral。接受率22%左右。
    在去年是5月份中旬截稿。但是因为今年加入了rolling的政策。按照ACL的时间,往年都是在1月低,今年的截稿时间提前到了11月15号。这么推算的话,EMNLP可能要在3月15号rolling.
  2. COLING,CCFB,难度3.5-4星,无rebuttal。两年举办一次,接收率在36%左右。
    在2020年的时候是6月份截稿,但是当时也是因为疫情推迟了,所以今年的截稿时间应该不会晚于6月份。
  3. CIKM,CCFB,难度3.5-4星,无rebuttal。接收率在23%左右。
    去年是5月份左右结构,难度适中如果赶不上EMNLP的话,可以考虑这个和COLING。
  4. KBS,SCI一区,难度3-3.5星。影响因子8.03。
    这是一个期刊,任何时间都可以投,审稿周期大概在三个月左右,第1次的话会给出修改意见,如果是小修进入到第2轮,一个月的修改时间。修改完之后,再等两个月左右的时间审稿,一般就会大概率accept。如果第一轮给的意见是major revision,大概率需要做两次的修改。按照reviewer给的suggestions修改的话会accept。
  5. Neurocomputing,SCI二区,难度2-3星。影响因子5.xxx
    同上。
  6. AAAI和WWW,CCFA,难度4-5星,有rebuttal。AAAI接收率今年15%。往年也是20%左右。截稿时间在10月份左右,后面根据情况而定。
  7. https://zhuanlan.zhihu.com/p/87189934 相关的AI期刊
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/536098
推荐阅读
相关标签
  

闽ICP备14008679号