当前位置:   article > 正文

【论文阅读】Self-Supervised Learning of Graph Neural Networks: A Unified Review

self-supervised learning of graph neural networks: a unified review

论文题目:Self-Supervised Learning of Graph Neural Networks: A Unified Review
论文地址:https://arxiv.org/abs/2102.10757

1 Introduction

可以将SSL的前置任务分为两类:对比模型和预测模型

两类的主要区别在于对比模型需要data-data对进行训练,而预测模型需要data-label对,其中label时从数据中自行生成的,如图1

在这里插入图片描述

对比模型通常利用自监督来学习数据表示或为下游任务执行预训练。

预测模型是以监督方式训练的,其中标签是基于输入数据的某些属性或通过选择数据的某些部分来生成的

由于图结构数据的独特性,在GNN上应用SSL有几个关键挑战:

  • 自监督模型应该从节点属性和图的结构拓扑中捕获基本信息
  • 对于对比模型,关键挑战在于如何获得图的良好视图以及不同模型和数据集的图编码器的选择
  • 对于预测模型来说,至关重要的是,应该生成什么样的标签,以便学习非琐碎的表示来捕捉节点属性和图结构的信息。

不同类别的自监督学习方法概述如图2

在这里插入图片描述

2 Problem Formulation

2.1 Notation

P \mathcal{P} P表示输入空间 G \mathcal{G} G上无标签图的分布。给定一个训练数据集,可以简单地将分布P构造为数据集中样本的均匀分布。自监督可以通过利用来自 P \mathcal{P} P的信息并最小化由专门设计的自监督学习任务确定的自监督损失 L s s l ( f , P ) \mathcal{L}_{ssl}(f,\mathcal{P}) Lssl(f,P)来促进图编码器 f f f 的学习

2.2 Paradigms for Self-Supervised Learning

应用自监督的典型训练范式包括无监督表示学习、无监督预训练和辅助学习

unsupervised representation learning

在无监督表示学习中,整个训练过程只有无标签图的分布 P \mathcal{P} P可用。给定图数据 ( A , X ) ∼ P (A,X) \sim \mathcal{P} (A,X)P,则问题表述为:

f ∗ = a r g min ⁡ f L s s l ( f , P ) f^* = arg \min_f \mathcal{L}_{ssl}(f,\mathcal{P}) f=argfminLssl(f,P)

此处 f f f可以理解为预测出来的数据分布, f ∗ f^* f为图编码器,需要得到一个是预测出来的分布与真实分布差距最小的图编码器

H ∗ = f ∗ ( A , X ) H^* = f^*(A,X) H=f(A,X)

可以将学习到的表示 H ∗ H^* H用在下游任务中

unsupervised pretraining

  • 用无标签的图训练图编码器 f f f
  • 将预训练的编码器 f i n i t f_{init} finit用作有监督微调阶段中编码器的初始化

f ∗ , h ∗ = a r g min ⁡ ( f , h ) L s u p ( f , h , P ) f^*,h^* = arg \min_{(f,h)} \mathcal{L}_{sup}(f,h, \mathcal{P}) f,h=arg(f,h)minLsup(f,h,P)

with initialization

f i n i t = a r g min ⁡ f L s s l ( f , P ) f_{init} = arg \min_f \mathcal{L}_{ssl}(f, \mathcal{P}) finit=argfminLssl(f,P)

auxiliary learning

我们让 Q \mathcal{Q} Q表示图数据和标签的联合分布, P \mathcal{P} P表示图数据的边缘

我们想要学习解码器 f f f和预测 h h h,其中 h h h是监督下训练 Q \mathcal{Q} Q f f f在监督和自监督下对 P \mathcal{P} P的训练

f ∗ , h ∗ = a r g min ⁡ ( f , h ) L s u p ( f , h , Q ) + λ L s s l ( f , P ) f^*,h^* = arg \min_{(f,h)} \mathcal{L}_{sup}(f,h, \mathcal{Q}) + \lambda \mathcal{L}_{ssl}(f, \mathcal{P}) f,h=arg(f,h)minLsup(f,h,Q)+λLssl(f,P)

3 Contrastive Learning

图对比学习的一个主要区别是:

  • 鉴别器的目标是给一个视图表示
  • 获取视图的方法
  • 计算视图表示的图编码器

3.1 Overview of Contrastive Learning Framework

在这里插入图片描述

对比学习方法的框架

对于图的编码器,大多数方法采用图级编码器,节点级编码器通常用于节点-图的对比。

给定一个图 ( A , X ) (A,X) (A,X),应用多个变换 T 1 , ⋯   , T k \mathcal{T}_1, \cdots, \mathcal{T}_k T1,,Tk得到不同的视图 w 1 , ⋯   , w k w_1, \cdots, w_k w1,,wk。一组编码网络 f 1 , ⋯   , f k f_1, \cdots, f_k f1,

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/523584
推荐阅读
相关标签
  

闽ICP备14008679号