赞
踩
GCN:图卷积神经网络。它不同于只用于网格结构数据的传统模型:LSTM,CNN等。是一种处理广义拓扑图结构的数据,深入挖掘其特征和规律的工具。(社交网络,通信网络,蛋白质分子等),这里也捎带补充一下广义拓扑图的概念:将实体抽象成与大小形状无关的点,点之间连接成线形成的图。GCN的发展史如下:
将来GNN的趋势会只增不减,只要我们好好利用它,相信能够很好的收获。
图数据可以表示为具有节点集 V 和边集 E 的图G =(V,E),其中点集V,n=|V|是节点数。这些节点是由该特征来描述的。矩阵X∈R n × f ^{n×f} n×f,其中 f 为节点特征的维数。G的图结构可以用邻接矩阵A∈R n × n ^{n×n} n×n来描述,其中,如果节点 i 和节点 j 之间有一条边,则为 A i j A_{ij} Aij = 1,否则为0。对角度矩阵记为 D=diag(d1,···,dn),其中 d i = ∑ j A i j d_i =\sum_j A_{ij} di=∑jAij。我们使用 A ~ = A + I \tilde A=A+I A~=A+I 来表示添加了自循环的邻接矩阵和 D ~ = D + I \tilde D=D+I D~=D+I。传统的图拉普拉斯矩阵为: L = D ~ − A ~ L = \tilde D - \tilde A L=D~−A~。然后归一化的邻接矩阵是 A ~ ^ = D ~ − 1 / 2 A ~ D ~ − 1 / 2 \hat{\tilde{A}} = \tilde D ^{−1/2}\tilde A \tilde D ^{−1/2} A~^=D~−1/2A~D~−1/2。相应地, L ~ = I − A ~ ^ \tilde L = I − \hat{\tilde{A}} L~=I−A~^是归一化对称正半定图拉普拉斯矩阵。
I I I、 A ~ ^ \hat {\tilde{A}} A~^、 L ~ \tilde L L~,分别对应有全通、低通、高通滤波的算子(图卷积核/滤波器)**
图学习的基本假设是,图上相邻的节点应该是相似的,因此在图域上的节点特征应该是平滑的。本节首先解释了平滑的意思;然后给出了广义拉普拉斯平滑滤波器的定义,并证明了它是一个平滑算子;最后回答了如何设计一个最优的拉普拉斯平滑滤波器。
从图信号处理的角度来解释平滑开始。以
x
∈
R
n
x\in R^n
x∈Rn 作为图上的信号,节点
i
i
i 的信号就是一个标量,也就是
x
i
x_i
xi。滤波矩阵为
H
H
H,为了测量图信号
x
x
x的平滑度,可以计算出图的拉普拉斯算子
L
L
L (
L
=
D
−
A
L = D - A
L=D−A)和
x
x
x 上的瑞利商:
这个商实际上是
x
x
x的标准化方差分数。如上所述,平滑信号应该在相邻节点上分配相似的值。因此,瑞利商越低,则图上的信号越平滑。
考虑图拉普拉斯 L = U Λ U − 1 L=UΛU^{−1} L=UΛU−1的特征分解,其中 U ∈ R n × n U \in R^{n\times n} U∈Rn×n包含特征向量, Λ = d i a g ( λ 1 , λ 2 , ⋅ ⋅ ⋅ , λ n ) Λ = diag(λ1,λ2,···,λn) Λ=diag(λ1,λ2,⋅⋅⋅,λn)是特征值的对角矩阵。随后可以给出了特征向量 u i ∈ U u_i \in U ui∈U的光滑性:
上式表示较平滑的特征向量与较小的特征值相关联,即频率较低。因此,基于等式基于
L
L
L分解信号
x
x
x基于公式(1)和(2):
其中
p
i
p_i
pi是特征向量
u
i
u_i
ui的系数。那么
x
x
x的平滑度就变成了:
因此,为了获得更平滑的信号,滤波器的目标是:在保留低频分量的同时,滤掉高频分量。由于其高计算效率和令人信服的性能,拉普拉斯平滑滤波器经常被用于这一目的(保留低频分量的同时,滤掉高频分量)。
广义拉普拉斯平滑滤波器定义为:
其中
k
k
k是实值的。采用
H
H
H作为滤波器矩阵,滤波后的信号
x
~
\tilde{x}
x~ 被表示为:
因此,为了实现低通滤波,频率响应函数
1
−
k
λ
1−kλ
1−kλ 应该是一个递减和非负函数。因为需要使特征值 λ 越大,对应的
p
′
i
p'i
p′i系数就越小,这样可以使得图上的瑞丽商变小,进而光滑,进而实现低通(频率低的特征通过,频率低也就意味着光滑)。
注意,该过滤器是不含有参数的。
自己的理解罢了,可能不太到位
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。