赞
踩
A NEW PERSPECTIVE ON “HOW GRAPH NEURAL NET- WORKS GO BEYOND WEISFEILER-LEHMAN?”
(括号内的内容是个人见解,难免偏颇,望请指正)
即在neighborhood sub-graphs 上的同构,就叫做邻居子图局部同构。(暂且这么翻译吧。。)
那么什么是neighborhood sub-graphs(邻居子图)呢?见上图: G 1 G_1 G1中 v v v的邻居子图 S v S_v Sv就是中间的 { v 1 . . . v 4 } \{v_1...v_4\} {v1...v4},包括 v v v自己。
那么什么是overlap子图,比如,假设节点 v 1 v_1 v1的邻居子图为 S v 1 S_{v1} Sv1,那么, S v 1 S_{v1} Sv1和 S v S_v Sv重叠的部分,即绿色椭圆部分,定义为 S v v 1 = S v ∩ S v 1 S_{vv_1}=S_{v} \cap S_{v_1} Svv1=Sv∩Sv1,即含了 { v 1 , v 2 , v } \{v1,v2,v\} {v1,v2,v}。再加上 S v v 2 , S v v 3 , S v v 4 S_{vv_2},S_{vv_3},S_{vv_4} Svv2,Svv3,Svv4,即为over-subgraphs。
同理,可得出 G 2 G_2 G2的overlab subgraphs。
(Ok,再回到上面的图。上图中,首先分别计算出 G 1 , G 2 G1,G2 G1,G2中的节点 v , u v,u v,u的overlap子图,然后用GMP(graph message passing)框架学习出两个节点的embedding: h v , h u h_v,h_u hv,hu,完事儿。)
接下来作者定义了对于任意两个邻居子图 S i , S j S_i,S_j Si,Sj的三种同构类型:
邻居子图是同构的; v 1 , v 2 ∈ S i v_1,v_2 \in S_i v1,v2∈Si是相邻的,有且仅有当 g ( v 1 ) , g ( v 2 ) ∈ S j g(v_1), g(v_2) \in S_j g(v1),g(v2)∈Sj也是相邻的,并且 h v 1 = h g ( v 1 ) h_{v_1} = h_{g(v_1)} hv1=hg(v1), h v 2 = h g ( v 2 ) h_{v_2}=h_{g(v_2)} hv2=hg(v2)
关于同构的定义其实很简单(即,对于任意两个图 G 1 , G 2 G_1,G_2 G1,G2, 存在一个bijective mapping, g : G 1 → G 2 g: G_1 \rightarrow G_2 g:G1→G2, 使得 g ( i ) = j g(i)=j g(i)=j, i ∈ V e r t e x ( G 1 ) , j ∈ V e r t e x ( G 2 ) i \in Vertex(G_1), j\in Vertex(G_2) i∈Vertex(G1),j∈Vertex(G2),详见:等下补充下同构,WL-test相关知识)。
即对于overlap子图中的每一个对overlap子图是subgraph-isomorphism的,即, S i v ≃ s u b g r a p h S j u S_{iv} \simeq_{subgraph} S_{ju} Siv≃subgraphSju.
只要求节点 i , j i,j i,j到其邻居节点构成的图同构,并且 h v = h u h_v = h_u hv=hu, v ∈ N ^ ( i ) v \in \hat{N}(i) v∈N^(i), u ∈ N ^ ( j ) u \in \hat{N}(j) u∈N^(j).
见图:
定理一:
≃
s
u
b
g
r
a
p
h
\simeq_{subgraph}
≃subgraph =>
≃
o
v
e
r
l
a
p
\simeq_{overlap}
≃overlap =>
≃
s
u
b
t
r
e
e
\simeq_{subtree}
≃subtree,反过来不行,=>代表推出。
定理二:如果一个GNN 有足够多层,并且可以将
S
i
,
S
j
S_i,S_j
Si,Sj映射为不同的embeddings的时候,则GNN和WL-1 相当,有且仅当
S
i
̸
≃
s
u
b
t
r
e
e
S
j
S_i \not \simeq_{subtree} S_j
Si≃subtreeSj。
定理三:当一个GNN的agg策略满足下面这三个性质的,且有足够多层,并满足1)substree同构,subgraph不同构,
i
i
i的邻居的multiset不等于
j
j
j邻居的multiset。2)聚合函数
Φ
\Phi
Φ是单射的;那么,该GNN就是严格的比1-WL要更具表达能力。(其实这个定义和[1] 中的WL kernel 用于subtree pattern的定义基本很像了。)
注:这里的kernel function:
w
w
w即用来构造邻接矩阵
A
A
A,比如
A
v
u
=
w
(
S
v
,
S
v
u
)
A_{vu}=w(S_v, S_{vu})
Avu=w(Sv,Svu),而
A
A
A就是决定了聚合的策略,即决定了邻居的权重。
那么基于上面的理论,我们只要构造满足定理三的聚合函数 Φ \Phi Φ的GNN就可以了。
这里
γ
\gamma
γ是一个可学习的参数。
作者做了两类实验,一类是图节点分类,另外一类是图整体分类问题。效果都很好,图分类用到了Standford的OGB,我也在跑这个benchmark。但是没有对比最新SOTA(去年7月的),比如ppa,sota已经80+了,作者是72.
(亮点主要是提出了一个新的视角来分析GNN表达能力。)
(个人认为本文思路很像是[1]中继承而来,但是扩展了三种isomorphism,并且计算 w w w的方式也比较有新意,可以从如何构造kernel function上面去挖掘新的想法。但是如果对于是没有 ground truth topology的任务,估计效果就不会很好,比如一些link prediction的任务。)
[1] Shervashidze, Nino, et al. “Weisfeiler-lehman graph kernels.” Journal of Machine Learning Research 12.9 (2011).
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。