赞
踩
论文题目:Self-Supervised Learning of Graph Neural Networks: A Unified Review
论文地址:https://arxiv.org/abs/2102.10757
可以将SSL的前置任务分为两类:对比模型和预测模型。
两类的主要区别在于对比模型需要data-data对进行训练,而预测模型需要data-label对,其中label时从数据中自行生成的,如图1
对比模型通常利用自监督来学习数据表示或为下游任务执行预训练。
预测模型是以监督方式训练的,其中标签是基于输入数据的某些属性或通过选择数据的某些部分来生成的
由于图结构数据的独特性,在GNN上应用SSL有几个关键挑战:
不同类别的自监督学习方法概述如图2
让 P \mathcal{P} P表示输入空间 G \mathcal{G} G上无标签图的分布。给定一个训练数据集,可以简单地将分布P构造为数据集中样本的均匀分布。自监督可以通过利用来自 P \mathcal{P} P的信息并最小化由专门设计的自监督学习任务确定的自监督损失 L s s l ( f , P ) \mathcal{L}_{ssl}(f,\mathcal{P}) Lssl(f,P)来促进图编码器 f f f 的学习
应用自监督的典型训练范式包括无监督表示学习、无监督预训练和辅助学习
在无监督表示学习中,整个训练过程只有无标签图的分布 P \mathcal{P} P可用。给定图数据 ( A , X ) ∼ P (A,X) \sim \mathcal{P} (A,X)∼P,则问题表述为:
f ∗ = a r g min f L s s l ( f , P ) f^* = arg \min_f \mathcal{L}_{ssl}(f,\mathcal{P}) f∗=argfminLssl(f,P)
此处 f f f可以理解为预测出来的数据分布, f ∗ f^* f∗为图编码器,需要得到一个是预测出来的分布与真实分布差距最小的图编码器
H ∗ = f ∗ ( A , X ) H^* = f^*(A,X) H∗=f∗(A,X)
可以将学习到的表示 H ∗ H^* H∗用在下游任务中
f ∗ , h ∗ = a r g min ( f , h ) L s u p ( f , h , P ) f^*,h^* = arg \min_{(f,h)} \mathcal{L}_{sup}(f,h, \mathcal{P}) f∗,h∗=arg(f,h)minLsup(f,h,P)
with initialization
f i n i t = a r g min f L s s l ( f , P ) f_{init} = arg \min_f \mathcal{L}_{ssl}(f, \mathcal{P}) finit=argfminLssl(f,P)
我们让 Q \mathcal{Q} Q表示图数据和标签的联合分布, P \mathcal{P} P表示图数据的边缘
我们想要学习解码器 f f f和预测 h h h,其中 h h h是监督下训练 Q \mathcal{Q} Q, f f f在监督和自监督下对 P \mathcal{P} P的训练
f ∗ , h ∗ = a r g min ( f , h ) L s u p ( f , h , Q ) + λ L s s l ( f , P ) f^*,h^* = arg \min_{(f,h)} \mathcal{L}_{sup}(f,h, \mathcal{Q}) + \lambda \mathcal{L}_{ssl}(f, \mathcal{P}) f∗,h∗=arg(f,h)minLsup(f,h,Q)+λLssl(f,P)
图对比学习的一个主要区别是:
对比学习方法的框架
对于图的编码器,大多数方法采用图级编码器,节点级编码器通常用于节点-图的对比。
给定一个图 ( A , X ) (A,X) (A,X),应用多个变换 T 1 , ⋯ , T k \mathcal{T}_1, \cdots, \mathcal{T}_k T1,⋯,Tk得到不同的视图 w 1 , ⋯ , w k w_1, \cdots, w_k w1,⋯,wk。一组编码网络 f 1 , ⋯ , f k f_1, \cdots, f_k f1,⋯
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。