赞
踩
点击上方“CVer”,选择加"星标"置顶
重磅干货,第一时间送达
来源:厦门大学信息学院官网
https://informatics.xmu.edu.cn/info/1053/16042.htm
近日,信息学院于人工智能领域顶级会议AAAI 2021(2021 AAAI Conference on Artificial Intelligence)上发表多项重要研究成果:
1、Improving Tree-Structured Decoder Training for Code Generation via Mutual Learning
本文的第一作者是信息学院软件工程系2017级本科生谢彬彬,通讯作者为信息学院软件工程系苏劲松副教授。本文提出一个对代码生成任务的树形解码器的统一训练框架,该框架利用了对树形结构的不同遍历方式来训练多个模型,同时各个模型之间互学习,相互增强。通过互学习,最终的模型能够感知多种遍历方式的信息,从而取得显著的性能提升。本文在多个公开数据集上进行实验,充分证明了该方法的有效性和通用性。
2、Weakly Supervised Semantic Segmentation for Large-Scale Point Cloud
信息学院计算机科学系2018级博士生张亚超、2018级硕士李宗豪是该论文共同第一作者,信息学院计算机科学系曲延云教授、华师大谢源教授为该论文共同通讯作者。本文旨在解决弱监督的大尺度点云语义分割任务因标签缺失不能有效训练问题。为此我们提出了一种知识迁移的方法:将自监督任务学习知识迁移至弱监督任务。具体来说,我们构建了一个点云颜色补全的自监督任务,能够在任何含有颜色的点云数据上进行训练,挖掘颜色一致性和类别之间的潜在的先验知识,进一步的将该知识迁移至弱监督点云分割任务提升弱监督网络的表示能力。此外,设计一个高效的稀疏软标签传播方法用于大尺度的点云语义分割,该方法构建了类别原型,并将无标签点和类别原型之间的特征相似度转化为标签传播概率,进一步通过稀疏化来获取的伪标签。实验结果表明,在三个大尺度的点云数据集上,对比当前流行的弱监督点云语义分割方法,我们的方法取得了最优的性能,达到了全监督可比的性能。
3、Learning to Attack Real-World Models for Person Re-identification via Virtual-Guided Meta-Learning
本文的第一作者是信息学院人工智能系2020级博士生杨丰祥,通信作者是信息与通信工程博士后流动站罗志明博士以及人工智能系李绍滋教授。本文提出了一种针对行人重识别的广义攻击方法MetaAttack。该方法借助元学习和额外的虚拟行人数据,训练可对不同行人重识别系统进行黑盒攻击的广义加性噪声,在多个公开数据集上取得了良好的攻击效果。额外的可视化实验也对提升行人重识别模型鲁棒性有一定启发。
4、Alternative Baselines for Low-Shot 3D Medical Image Segmentation—An Atlas Perspective
本文的第一作者是信息学院计算机科学系2017级硕士生王淑欣,通讯作者是计算机科学系王连生副教授。该论文针对三维医学图像中有限标注low-shot分割问题,基于多图谱影像分割方法,提出了两个基线方法,即:Siamese-Baseline和Individual-Difference-Aware (IDA) Baseline,前者针对解剖学上稳定的结构(例如脑组织),后者对形态学上差异更大的结构具有更强的泛化能力(例如腹部器官)。
5、Code Completion by Modeling Flattened Abstract Syntax Trees as Graphs
本文的第一作者为微软亚洲研究院研究员,通讯作者是信息学院计算机系李辉助理教授。该论文提出了在自动代码补全问题中将抽象语法树扁平化后再建模为抽象语法树图的方法CCAG。针对已有方法仅采用扁平化操作或建模为图(树)操作中的一种,而导致抽象语法树中包含的重复模式及远距离关联节点较难被学习的问题,该论文第一次提出了可以融合两种操作,并通过基于注意力机制和位置嵌入的图神经网络进行多任务学习以提供更准确的代码补全预测。实验结果表明,CCAG在真实数据上能取得比包括已应用于Visual Studio Code IDE中的神经网络方法在内的多个state-of-the-art方法更准确的代码补全预测结果。
6、Improving Image Captioning by Leveraging Intra- and Inter-layer Global Representation in Transformer Network
该论文由信息学院人工智能系2018级博士纪家沂与其导师纪荣嵘教授,孙晓帅副教授(通讯作者)和2019级硕士骆云鹏等合作完成。本文提出了一个全局信息加强的Transformer结构,利用transformer层级结构的特点,建模层间-跨层联合全局信息表示,从而充分引导图像描述生成,解决目标丢失和关系偏置的问题,在该任务的线上线下常用公开数据集上均证明了此模型的优势。
7、Local Relation Learning for Face Forgery Detection
本文的第一作者是信息学院计算机系2018级硕士生陈燊,通讯作者是信息学院人工智能系纪荣嵘教授。本文提出了一个基于局部区域关联的人脸伪造检测算法,通过一个多尺度局部相似性模块来挖掘真实区域和伪造区域间的差异,并结合RGB-频域注意力机制更全面得学习到区域特征。本方法在多个公开数据集上均取得了最优性能。
8、Dual Distribution Alignment Network for Generalizable Person Re-Identification
本文的第一作者是信息学院计算机科学系2018级硕士陈珮娴,通讯作者为信息学院高级工程师戴平阳老师。本文提出一个适用于行人重识别域泛化问题的双重分布对齐网络。本文的核心思路在于通过Domain-wise Adversarial Feature Learning 和 Identity-wise Similarity Enhancement 两个层面上的约束对齐多个域数据之间的分布,训练得到一个具有足够泛化性的模型,可以直接被运用在新域上。本模型在该任务的常用公开数据集上均取得了最优性能。
9、Dual-level Collaborative Transformer for Image Captioning
该论文由信息学院人工智能系2019级硕士骆云鹏与其导师纪荣嵘教授,孙晓帅副教授(通讯作者)和2018级博士纪家沂等合作完成。本文提出了一个双层级特征协作的Transformer结构,以实现区域特征和网格特征两者的优势互补,并在其中提出了特征几何对齐图来指导特征间的信息交互,从而解决多路特征直接融合带来的语义噪声问题,最终在该任务的线上线下常用公开数据集上均证明了此模型的优势。
10、Domain General Face Forgery Detection by Learning to Weight
本文的第一作者是信息学院人工智能系2019级硕士孙可,通讯作者为信息学院人工智能系纪荣嵘教授。本文涉及伪造脸检测,针对传统二分类模型的伪造脸检测的方法无法很好的检测未知攻击算法的假脸的缺点,考虑了伪造脸样本之间对模型泛化性贡献不同和伪造脸生成算法的不稳定性,提出了基于元学习的泛化性伪造假脸检测的方法,并在多个数据集上证明了此方法的优势。
11、Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion
本文由腾讯优图实验室和信息学院人工智能系纪荣嵘教授共同完成。本文提出了用两个简单的操作来解耦视频中的场景和运动信息,通过自监督手段来让模型更加关注运动信息。该方法让模型避免过度依赖场景信息,同时对时序信息更加敏感,在UCF101和HMDB51数据集上均取得了SOTA的效果。
AAAI是人工智能领域的顶级会议,被中国计算机学会(CCF)认定为A类会议。据了解,AAAI 2021此次共有1692篇论文被接收,录取率为21%。
下载:CVPR / ECCV 2020开源代码
后台回复:CVPR2020,即可下载CVPR 2020代码开源的论文合集
后台回复:ECCV2020,即可下载ECCV 2020代码开源的论文合集
重磅!CVer-论文写作与投稿交流群成立
扫码添加CVer助手,可申请加入CVer-论文写作与投稿 微信交流群,目前已满2400+人,旨在交流顶会(CVPR/ICCV/ECCV/NIPS/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI、中文核心等写作与投稿事宜。
同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如论文写作+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加微信群
▲长按关注CVer公众号
整理不易,请给CVer点赞和在看!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。