赞
踩
论文题目:FastGCN:fast learning with graph convolutional networks via importance sampling FastGCN:通过重要性采样,利用图卷积网络进行快速学习
作者:来自IBM Research的Jie Chen, Tengfei Ma, Cao Xiao
时间:2018
来源:ICLR
论文链接:https://arxiv.org/pdf/1801.10247.pdf
Github链接:https://github.com/matenure/FastGCN
由Kipf and Welling在2017年提出来的GCN是一个处理半监督学习很有效的图模型。但是,递归的跨层邻域扩展对使用大而密集的图进行训练提出了时间和内存方面的挑战。此文将图卷积解释为概率测度下embedding函数的积分变换。
FastGCN是一种结合了重要性采样的批量训练的算法,不仅可以使GCN的训练更高效,也能很好地泛化到推理中。
实验证明,训练效率提高了几个数量级,而预测仍然相当准确。
概率测度:度量“事件发生的可能性大小”,有相同的概率测度就是指发生的可能性相同,有相同的分布
“自助法”(bootstrapping)以自助采样(可重复采样、有放回采样)为基础。
假如一个数据集D有m个样本,看看训练集和测试集怎么选择:
那么训练集D和测试集D’中共有多少数据呢?
可以看出数据集中样本在m次始终不被采样到的概率是 ( 1 − 1 m ) m (1-\frac{1}{m})^{m} (1−m1)m
两个重要的极限公式
lim
m
→
0
sin
m
m
=
1
\lim_{m\rightarrow 0 } \frac{\sin{m}}{m} = 1
m→0limmsinm=1
lim
m
→
0
(
1
+
x
)
1
x
=
e
\lim_{m\rightarrow 0 } \left ( 1+x \right )^{\frac{1}{x}} = e
m→0lim(1+x)x1=e
令
m
=
1
t
m=\frac{1}{t}
m=t1,取极限得:
lim m → ∝ ( 1 − 1 m ) m = 1 e ≈ 0.368 \lim_{m\rightarrow \propto }(1-\frac{1}{m})^{m}=\frac{1}{e}\approx 0.368 m→∝lim(1−m1)m=e1≈0.368
所以数据集D中有36.8%的样本未出现在训练集中。
优缺点:
GCN是transductive的,但对于实际中的许多应用,测试数据可能不容易获得,因为图形可能随着新的顶点不断扩展(例如,社交网络的新成员、推荐系统的新产品和功能测试的新药物)。这样的场景需要一个inductive的方案,该方案只用一部分训练顶点来学习模型,并且能够很好地推广到有任何扩充的图。
GCN面临的一个更严峻的挑战是,在批量训练中,跨层递归扩展邻域的代价很大。特别是对于稠密图和幂律图,单顶点邻域的扩展很快占据了图的很大一部分。mini-batch训练即使在batch size很小的时候,也会涉及到和每个batch相关的大量数据。因此,为了使GCN适用于大型、密集的图,可扩展性是一个迫切需要解决的问题。
文中提出的FastGCN不仅避免了对测试数据的依赖,还为每个batch的计算产生了可控的代价花费。与GraphSAGE的采样方法相比,FastGCN的采样方案大大减少了梯度的计算(在第3.3节中有更详细的分析)。实验结果表明,FastGCN的每个batch的计算速度比GraphSAGE快一个数量级以上,但分类精度仍然具有很高的可比性。
为了解决一些基于图结构数据的应用,出现了很多方法。
通过谱图理论产生embedding的方法
通过矩阵分解产生embedding的方法
基于随机游走产生embedding的方法
和此文最相关的方法当属GraphSAGE(Hamilton et al., 2017),GraphSAGE给出的解决方案相对简单:对一阶邻居进行采样,即采样;充分利用采样后的邻居信息,即聚集。采样的方式简单粗暴,对一阶邻居随机排序;选取固定数量的邻居;少则重复,多则舍弃。对于聚集,GraphSAGE提出了三类聚集器:
和GraphSAGE的对比
GCN与许多标准神经网络结构的一个显著区别是样本丢失缺乏独立性。基于损失函数对独立数据样本的可加性,目前有SGD(只用一个样本求梯度)及BGD(批量梯度下降,使用所有样本求梯度)等训练算法。针对图上每个顶点都与其所有邻域卷积,此文定义了一个计算效率非常高的样本梯度。
考虑一个使用标准SGD的场景,其中loss是和数据分布 D D D相关的一些函数 g g g的期望
L
=
E
x
∼
D
[
g
(
W
;
x
)
]
L=\text{E}_{x \sim D}[g(W;x)]
L=Ex∼D[g(W;x)]
其中,
W
W
W就是模型要优化的参数。
通常,数据分布是不知道的,因此一个作为最小化经验损失的替代做法是把样本
x
1
,
.
.
.
,
x
n
x_1,...,x_n
x1,...,xn看作是独立同分布的
L
e
m
p
=
1
n
∑
i
=
1
n
g
(
W
;
x
)
,
x
i
∼
D
,
∀
i
L_{emp}=\frac{1}{n} \sum_{i=1}^n g(W;x), \qquad \qquad \qquad x_i \sim D,\forall_i
Lemp=n1i=1∑ng(W;x),xi∼D,∀i
在SGD的每一步中,梯度为
∇
g
(
W
;
x
)
\nabla g(W;x)
∇g(W;x)。此时,样本的损失和梯度都只涉及一个单独的样本
x
i
x_i
xi。
但是,在图上就不能再利用独立性和通过递归地丢弃样本的邻居节点、邻居节点的邻居节点的信息来计算样本的梯度 ∇ g ( W ; x ) \nabla g(W;x) ∇g(W;x)。
假设一个图 G ′ G' G′,顶点集为 V ′ V' V′,并和一个概率空间 ( V ′ , F , P ) (V',F, P) (V′,F,P)相关联。在这个概率空间中,可以将 V ′ V' V′看作样本空间, F F F看作事件空间,概率测度 P P P定义为一个样本的分布。对于图 G ′ G' G′的子图 G G G,它的顶点来源于 V ′ V' V′中根据概率测度计算的独立同分布的样本。
为了解决由于卷积造成的缺乏独立性的问题,文中将网络的每一层解释为顶点的embedding函数(把顶点看作随机变量),这些顶点(随机变量)有相同的概率测度,但彼此独立。
GCN的公式如下
H
~
(
l
+
1
)
=
A
^
H
(
l
)
W
(
l
)
,
H
(
l
+
1
)
=
σ
(
H
~
(
l
+
1
)
)
,
l
=
0
,
…
,
M
−
1
,
L
=
1
n
∑
i
=
1
n
g
(
H
(
M
)
(
i
,
:
)
)
,
(1)
\tag {1} \tilde{H}^{(l+1)}=\hat{A} H^{(l)} W^{(l)}, \quad H^{(l+1)}=\sigma\left(\tilde{H}^{(l+1)}\right), \quad l=0, \ldots, M-1, \quad L=\frac{1}{n} \sum_{i=1}^{n} g\left(H^{(M)}(i, :)\right),
H~(l+1)=A^H(l)W(l),H(l+1)=σ(H~(l+1)),l=0,…,M−1,L=n1i=1∑ng(H(M)(i,:)),(1)
用积分变换的形式可以表示为
h
~
(
l
+
1
)
(
v
)
=
∫
A
^
(
v
,
u
)
h
(
l
)
(
u
)
W
(
l
)
d
P
(
u
)
,
h
(
l
+
1
)
(
v
)
=
σ
(
h
~
(
l
+
1
)
(
v
)
)
,
l
=
0
,
…
,
M
−
1
,
(2)
\tag {2} \tilde{h}^{(l+1)}(v)=\int \hat{A}(v, u) h^{(l)}(u) W^{(l)} d P(u), \quad h^{(l+1)}(v)=\sigma\left(\tilde{h}^{(l+1)}(v)\right), \quad l=0, \ldots, M-1 ,
h~(l+1)(v)=∫A^(v,u)h(l)(u)W(l)dP(u),h(l+1)(v)=σ(h~(l+1)(v)),l=0,…,M−1,(2)
损失函数写为
L
=
E
v
∼
P
[
g
(
h
(
M
)
(
v
)
)
]
=
∫
g
(
h
(
M
)
(
v
)
)
d
P
(
v
)
,
(3)
\tag{3} L=\mathrm{E}_{v \sim P}\left[g\left(h^{(M)}(v)\right)\right]=\int g\left(h^{(M)}(v)\right) d P(v),
L=Ev∼P[g(h(M)(v))]=∫g(h(M)(v))dP(v),(3)
其中
以函数形式表示GCN就可以使用蒙特卡罗方法来计算积分,这样就产生了一种批处理的训练算法,也使得训练和测试数据得以分离,就像在归纳学习中一样。
使用 t l t_l tl个独立同分布的样本 u 1 ( l ) , … , u t l ( l ) ∼ P u_{1}^{(l)}, \ldots, u_{t_{l}}^{(l)} \sim P u1(l),…,utl(l)∼P去近似估计公式(2)中的积分变换,也就是
h
~
t
l
+
1
(
l
+
1
)
(
v
)
:
=
1
t
l
∑
j
=
1
t
l
A
^
(
v
,
u
j
(
l
)
)
h
t
l
(
l
)
(
u
j
(
l
)
)
W
(
l
)
,
h
t
l
+
1
(
l
+
1
)
(
v
)
:
=
σ
(
h
~
t
l
+
1
(
l
+
1
)
(
v
)
)
,
l
=
0
,
…
,
M
−
1
\tilde{h}_{t_{l+1}}^{(l+1)}(v) :=\frac{1}{t_{l}} \sum_{j=1}^{t_{l}} \hat{A}\left(v, u_{j}^{(l)}\right) h_{t_{l}}^{(l)}\left(u_{j}^{(l)}\right) W^{(l)}, \quad h_{t_{l+1}}^{(l+1)}(v) :=\sigma\left(\tilde{h}_{t_{l+1}}^{(l+1)}(v)\right), \quad l=0, \ldots, M-1
h~tl+1(l+1)(v):=tl1j=1∑tlA^(v,uj(l))htl(l)(uj(l))W(l),htl+1(l+1)(v):=σ(h~tl+1(l+1)(v)),l=0,…,M−1
其中,约定
h
t
0
(
0
)
≡
h
(
0
)
h_{t_{0}}^{(0)} \equiv h^{(0)}
ht0(0)≡h(0)。
然后,公式(3)的loss L容许一个估计量
L
t
0
,
t
1
,
…
,
t
M
:
=
1
t
M
∑
i
=
1
t
M
g
(
h
t
M
(
M
)
(
u
i
(
M
)
)
)
L_{t_{0}, t_{1}, \ldots, t_{M}} :=\frac{1}{t_{M}} \sum_{i=1}^{t_{M}} g\left(h_{t_{M}}^{(M)}\left(u_{i}^{(M)}\right)\right)
Lt0,t1,…,tM:=tM1i=1∑tMg(htM(M)(ui(M)))
结果表明,估计量是一致的(consistent)。这个证明是大数定律和连续映射定理的递归应用;(文中附录部分有介绍)
如果 g g g和 σ \sigma σ是连续的,那么
lim
t
0
,
t
1
,
…
,
t
M
→
∞
L
t
0
,
t
1
,
…
,
t
M
=
L
with probability one.
\lim _{t_{0}, t_{1}, \ldots, t_{M} \rightarrow \infty} L_{t_{0}, t_{1}, \ldots, t_{M}}=L \quad \text { with probability one.}
t0,t1,…,tM→∞limLt0,t1,…,tM=L with probability one.
在实际应用中,给定一个所有顶点都假定为样本的图。因此,需要使用自助法(bootstrapping)获得一个一致性评估。对于公式(1)的GCN,输出
H
(
M
)
H^{(M)}
H(M)被划分成多个batch。使用
u
1
(
M
)
,
…
,
u
t
M
(
M
)
u_{1}^{(M)}, \ldots, u_{t_{M}}^{(M)}
u1(M),…,utM(M)定义为顶点的一个batch,这些顶点都来自于给定的图。对于每一个batch,采用均匀采样每一层的顶点以获得样本
u
i
(
l
)
,
i
=
1
,
…
,
t
l
,
l
=
0
,
…
,
M
−
1
u_{i}^{(l)}, i=1, \dots, t_{l}, l=0, \dots, M-1
ui(l),i=1,…,tl,l=0,…,M−1。这种操作等价于对每个
l
l
l的
H
(
l
)
H^{(l)}
H(l)行进行均匀采样。然后,可以获得batch loss
L
b
a
t
c
h
=
1
t
M
∑
i
=
1
t
M
g
(
H
(
M
)
(
u
i
(
M
)
,
:
)
)
,
(4)
\tag {4} L_{\mathrm{batch}}=\frac{1}{t_{M}} \sum_{i=1}^{t_{M}} g\left(H^{(M)}\left(u_{i}^{(M)}, :\right)\right),
Lbatch=tM1i=1∑tMg(H(M)(ui(M),:)),(4)
递归地计算
H
(
l
+
1
)
(
v
,
:
)
=
σ
(
n
t
l
∑
j
=
1
t
l
A
^
(
v
,
u
j
(
l
)
)
H
(
l
)
(
u
j
(
l
)
,
:
)
W
(
l
)
)
,
l
=
0
,
…
,
M
−
1
(5)
\tag {5} H^{(l+1)}(v, :)=\sigma\left(\frac{n}{t_{l}} \sum_{j=1}^{t_{l}} \hat{A}\left(v, u_{j}^{(l)}\right) H^{(l)}\left(u_{j}^{(l)}, :\right) W^{(l)}\right), \quad l=0, \ldots, M-1
H(l+1)(v,:)=σ(tlnj=1∑tlA^(v,uj(l))H(l)(uj(l),:)W(l)),l=0,…,M−1(5)
其中
在算法1中,可以在每一个 H ( l ) H^{(l)} H(l)上应用链式法则直接得到对应的batch gradient
由于所有层都经过了一个非线性变换,因此要计算所有层的方差是一个挑战。文中采用的方式是对于每一个层在进行非线性变换之前改进embedding函数的方差。比如,对于第 l l l层,函数 h ~ t l + 1 ( l + 1 ) ( v ) \tilde{h}_{t_{l+1}}^{(l+1)}(v) h~tl+1(l+1)(v)作为卷积 ∫ A ^ ( v , u ) h t l ( l ) ( u ) W ( l ) d P ( u ) \int \hat{A}(v, u) h_{t_{l}}^{(l)}(u) W^{(l)} d P(u) ∫A^(v,u)htl(l)(u)W(l)dP(u)的近似。当采样 t l + 1 t_{l+1} tl+1个样本 v = u 1 ( l + 1 ) , … , u t l + 1 ( l + 1 ) v=u_{1}^{(l+1)}, \dots, u_{t_{l+1}}^{(l+1)} v=u1(l+1),…,utl+1(l+1), h ~ t l + 1 ( l + 1 ) ( v ) \tilde{h}_{t_{l+1}}^{(l+1)}(v) h~tl+1(l+1)(v)的样本均值可以得到一个方差,该方差捕获了与这一层所造成的最终损失之间的偏差。
分别考虑每一层,并做符号简化
在v和u的联合分布(joint distribution)下,上述样本均值为
G : = 1 s ∑ i = 1 s y ( v i ) = 1 s ∑ i = 1 s ( 1 t ∑ j = 1 t A ^ ( v i , u j ) x ( u j ) ) G :=\frac{1}{s} \sum_{i=1}^{s} y\left(v_{i}\right)=\frac{1}{s} \sum_{i=1}^{s}\left(\frac{1}{t} \sum_{j=1}^{t} \hat{A}\left(v_{i}, u_{j}\right) x\left(u_{j}\right)\right) G:=s1i=1∑sy(vi)=s1i=1∑s(t1j=1∑tA^(vi,uj)x(uj))
G允许的方差为
Var
{
G
}
=
R
+
1
s
t
∬
A
^
(
v
,
u
)
2
x
(
u
)
2
d
P
(
u
)
d
P
(
v
)
(6)
\tag {6} \operatorname{Var}\{G\}=R+\frac{1}{s t} \iint \hat{A}(v, u)^{2} x(u)^{2} d P(u) d P(v)
Var{G}=R+st1∬A^(v,u)2x(u)2dP(u)dP(v)(6)
其中
R = 1 s ( 1 − 1 t ) ∫ e ( v ) 2 d P ( v ) − 1 s ( ∫ e ( v ) d P ( v ) ) 2 and e ( v ) = ∫ A ^ ( v , u ) x ( u ) d P ( u ) R=\frac{1}{s}\left(1-\frac{1}{t}\right) \int e(v)^{2} d P(v)-\frac{1}{s}\left(\int e(v) d P(v)\right)^{2} \quad \text { and } \quad e(v)=\int \hat{A}(v, u) x(u) d P(u) R=s1(1−t1)∫e(v)2dP(v)−s1(∫e(v)dP(v))2 and e(v)=∫A^(v,u)x(u)dP(u)
令 Q ( u ) Q(u) Q(u)表示新的概率测度,可以定义新的样本均值的近似值
y Q ( v ) : = 1 t ∑ j = 1 t A ^ ( v , u j ) x ( u j ) ( d P ( u ) d Q ( u ) ∣ u j ) y_{Q}(v) :=\frac{1}{t} \sum_{j=1}^{t} \hat{A}\left(v, u_{j}\right) x\left(u_{j}\right) \Bigg ( \frac{d P(u)}{d Q(u)} \Bigg|_{u_j} \Bigg ) yQ(v):=t1j=1∑tA^(v,uj)x(uj)(dQ(u)dP(u)∣∣∣∣∣uj)
the quantity of interest
G
Q
:
=
1
s
∑
i
=
1
s
y
Q
(
v
i
)
=
1
s
∑
i
=
1
s
(
1
t
∑
j
=
1
t
A
^
(
v
i
,
u
j
)
x
(
u
j
)
(
d
P
(
u
)
d
Q
(
u
)
∣
u
j
)
)
G_{Q} :=\frac{1}{s} \sum_{i=1}^{s} y_{Q}\left(v_{i}\right)=\frac{1}{s} \sum_{i=1}^{s} \Bigg ( \frac{1}{t} \sum_{j=1}^{t} \hat{A}(v_{i}, u_{j} ) x(u_{j}) \Bigg ( \frac{d P(u)}{d Q(u)} \Bigg|_{u_j} \Bigg ) \Bigg )
GQ:=s1i=1∑syQ(vi)=s1i=1∑s(t1j=1∑tA^(vi,uj)x(uj)(dQ(u)dP(u)∣∣∣∣∣uj))
很显然,
G
Q
G_Q
GQ的方差和
G
G
G的相同,不用管新的测度
Q
Q
Q。下面的结果给出了一个最优的的
Q
Q
Q。
如果
d
Q
(
u
)
=
b
(
u
)
∣
x
(
u
)
∣
d
P
(
u
)
∫
b
(
u
)
∣
x
(
u
)
∣
d
P
(
u
)
where
b
(
u
)
=
[
∫
A
^
(
v
,
u
)
2
d
P
(
v
)
]
1
2
,
(7)
\tag{7} d Q(u)=\frac{b(u)|x(u)| d P(u)}{\int b(u)|x(u)| d P(u)} \quad \text { where } \quad b(u)=\left[\int \hat{A}(v, u)^{2} d P(v)\right]^{\frac{1}{2}} ,
dQ(u)=∫b(u)∣x(u)∣dP(u)b(u)∣x(u)∣dP(u) where b(u)=[∫A^(v,u)2dP(v)]21,(7)
那么,
G
Q
G_Q
GQ的方差
Var
{
G
Q
}
=
R
+
1
s
t
[
∫
b
(
u
)
∣
x
(
u
)
∣
d
P
(
u
)
]
2
,
(8)
\tag{8} \operatorname{Var}\left\{G_{Q}\right\}=R+\frac{1}{s t}\left[\int b(u)|x(u)| d P(u)\right]^{2} ,
Var{GQ}=R+st1[∫b(u)∣x(u)∣dP(u)]2,(8)
其中
用这种方式定义采样分布Q的缺点是涉及到 ∣ x ( u ) ∣ |x(u)| ∣x(u)∣,它在训练过程中经常改变。这相当于embedding matrix H ( l ) H^{(l)} H(l)和参数矩阵 W ( l ) W^{(l)} W(l)的乘积。由于参数矩阵在每次迭代过程中都是在更新的,因此矩阵乘法的计算代价是很高的。所以,计算最优的测度Q的代价是很高的。
作为一个折中,考虑一个只涉及 b ( u ) b(u) b(u)的Q。命题4给出了一个精确的定义。最终的方差可能小于公式(6)中的方差。在实际应用中,发现是很有用的。
如果
d
Q
(
u
)
=
b
(
u
)
2
d
P
(
u
)
∫
b
(
u
)
2
d
P
(
u
)
d Q(u)=\frac{b(u)^{2} d P(u)}{\int b(u)^{2} d P(u)}
dQ(u)=∫b(u)2dP(u)b(u)2dP(u)
其中,
b
(
u
)
b(u)
b(u)按公式(7)的定义。那么,
G
Q
G_Q
GQ的方差为
Var { G Q } = R + 1 s t ∫ b ( u ) 2 d P ( u ) ∫ x ( u ) 2 d P ( u ) , (9) \tag{9} \operatorname{Var}\left\{G_{Q}\right\}=R+\frac{1}{s t} \int b(u)^{2} d P(u) \int x(u)^{2} d P(u), Var{GQ}=R+st1∫b(u)2dP(u)∫x(u)2dP(u),(9)
在概率测度Q下,
d
Q
(
u
)
/
d
P
(
u
)
dQ(u)/dP (u)
dQ(u)/dP(u)的比值和
b
(
u
)
2
b(u)^2
b(u)2成正比,这样就可以简化积分
A
^
(
v
,
u
)
2
\hat A(v,u)^2
A^(v,u)2。
对给定的图中给定所有顶点定义概率质量函数
q ( u ) = ∥ A ^ ( : , u ) ∥ 2 / ∑ u ′ ∈ V ∥ A ^ ( : , u ′ ) ∥ 2 , u ∈ V q(u)=\|\hat{A}( :, u)\|^{2} / \sum_{u^{\prime} \in V}\left\|\hat{A}\left( :, u^{\prime}\right)\right\|^{2}, \quad u \in V q(u)=∥A^(:,u)∥2/u′∈V∑∥∥∥A^(:,u′)∥∥∥2,u∈V
公式(4)中的batch loss L b a t c h L_{batch} Lbatch现在可以重新递归地扩展开
H
(
l
+
1
)
(
v
,
:
)
=
σ
(
1
t
l
∑
j
=
1
t
l
A
^
(
v
,
u
j
(
l
)
)
H
(
l
)
(
u
j
(
l
)
,
:
)
W
(
l
)
q
(
u
j
(
l
)
)
)
,
u
j
(
l
)
∼
q
,
l
=
0
,
…
,
M
−
1.
(10)
\tag {10} H^{(l+1)}(v, :)=\sigma\left(\frac{1}{t_{l}} \sum_{j=1}^{t_{l}} \frac{\hat{A}\left(v, u_{j}^{(l)}\right) H^{(l)}\left(u_{j}^{(l)}, :\right) W^{(l)}}{q\left(u_{j}^{(l)}\right)}\right), \quad u_{j}^{(l)} \sim q, \quad l=0, \ldots, M-1.
H(l+1)(v,:)=σ⎝⎛tl1j=1∑tlq(uj(l))A^(v,uj(l))H(l)(uj(l),:)W(l)⎠⎞,uj(l)∼q,l=0,…,M−1.(10)
公式(5)和(10)的区别在于前者通过均匀采样获得样本而后者根据概率密度公式q获得样本。
在算法2中,可以在每一个 H ( l ) H^{(l)} H(l)上应用链式法则直接得到对应的batch gradient
在GCN和GraphSAGE的基础上做的实验,并和它们进行对比。
benchmark tasks
了解更多证明和实验细节,可参考论文中的附录部分。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。