当前位置:   article > 正文

ICLR2022 GNN图神经网络论文阅读 (二) 泛读 (11-12)_图神经网路最新顶会论文汇总2022

图神经网路最新顶会论文汇总2022

论文列表

目前找了录用的一些有关于Graph或者GNN的文章,先过一遍各个文章的摘要,然后再花时间对觉得比较重要或者有趣的文章进行详细阅读。

在这里插入图片描述

Paper 11

今天这篇文章不是GNN文章,但是和graph有关,其实是causal discvoery的文章,初入坑这个方向,下一个专题论文分享将会是causality相关的文章,今天碰巧先开个引子

在这里插入图片描述

摘要简介

  • 利用观测数据和干预数据来学习因果图模型是很多科学研究的基础。
  • 用连续优化来做score-based的方法虽然比较有前景,但是需要对无环或者收敛进行约束。
  • 提出了ENCO,对DAG因果图进行学习。
  • ENCO会独立的优化每条边的likelihood,并且边的方向也是一个变量。
  • 因此我们能够不依赖与无环的约束就能保证ENCO的收敛性。
  • ENCO能同时处理deterministic variables和发现潜在confounder,并且能有效地恢复具有数百个节点的图,比以前可能的要大一个数量级。

实验

在这里插入图片描述

在这里插入图片描述

Paper 12

在这里插入图片描述

摘要简介

  • 利用前置任务(pretext task)来进行图自监督学习很重要。
  • 通常都是用单一的pretex task,我们认为这样比较局限,应该找到很多pretext tasks来做。
  • 提出了AOTOSSL,利用“homophily”同质性,或者说“物以类聚”为原则,来高效地搜索pretext tasks。
  • 从理论和实验上来证明该框架的灵活性。
  • AUTOSSL相对于只利用单一pretext task的方法,在8个真实数据集上都取得了明显性能提升,包括图聚类和分类任务。

实验

提升看起来确实明显。
在这里插入图片描述
在这里插入图片描述

分析

相当于从图中挖掘了更多的feature。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/815493
推荐阅读
相关标签
  

闽ICP备14008679号