当前位置:   article > 正文

【论文知识点笔记】GNN概述(图神经网络概述)_graph wavelet neural network

graph wavelet neural network

拉普拉斯矩阵示例
视频地址

图卷积的谱方法

图(Graph)

G = ( V , E , W ) \boldsymbol{G = (V,E,W)} G=(V,E,W)

  • V − 节 点 的 集 合 \boldsymbol{V-节点的集合} V
  • E − 边 的 集 合 \boldsymbol{E-边的集合} E
  • W − 权 重 的 集 合 , W ∈ R n × n \boldsymbol{W-权重的集合,W \in R^{n \times n}} W,WRn×n
  • X − 节 点 的 特 征 矩 阵 , X ∈ R n × d \boldsymbol{X-节点的特征矩阵,X \in R^{n \times d}} X,XRn×d
    每个节点都有d维的特征,X为节点的特征矩阵,X的每一列可以看作定义在n个节点的图上的信号。(信号处理)

图拉普拉斯矩阵(Graph Laplacian)

定义了图上的导数,刻画了信号在图上的平滑程度。
L = D − W \boldsymbol{L = D - W} L=DW

  • D − 度 矩 阵 , D i i = ∑ j W i j \boldsymbol{D-度矩阵,\boldsymbol{D}_{i i}=\sum_{j} \boldsymbol{W}_{i j}} DDii=jWij
  • W − 权 值 矩 阵 \boldsymbol{W-权值矩阵} W

正则化的图拉普拉斯矩阵(Normalized graph Laplacian)

L = I − D − 1 2 W D − 1 2 \boldsymbol{L}=\boldsymbol{I}-\boldsymbol{D}^{-\frac{1}{2}} \boldsymbol{W} \boldsymbol{D}^{-\frac{1}{2}} L=ID21WD21
I \boldsymbol{I} I为单位矩阵, L \boldsymbol{L} L的每个元素如下:
L i , j : = { 1  if  i = j  and  deg ⁡ ( v i ) ≠ 0 − 1 deg ⁡ ( v i ) deg ⁡ ( v j )  if  i ≠ j  and  v i  is adjacent to  v j 0  otherwise.  \boldsymbol{L_{i, j}:=\left\{1 if i=j and deg(vi)01deg(vi)deg(vj) if ij and vi is adjacent to vj0 otherwise. 

11deg(vi)deg(vj)0 if i=j and deg(vi)0 if ij and vi is adjacent to vj otherwise. 
\right.} Li,j:=1deg(vi)deg(vj) 10 if i=j and deg(vi)=0 if i=j and vi is adjacent to vj otherwise. 

图傅里叶基(Fourier basis of graph G G G

假如图上有n个节点,每个节点有一个取值,图上的一个信号就是一个n维度的向量,我们需要把这个n维度的向量变换到新的域里边去,那就需要一组基,这组基呢就是拉普拉斯矩阵的n个特征向量。它的n个特征向量就构成了一个n维空间,且n个特征向量正交的,这是由拉普拉斯矩阵性质决定的。我们所需要做的就是把这信号x投影在这n个基上,就相当于 x 在 u 1 的 投 影 = x ⋅ u 1 x在u_1的投影 = x \cdot u_1 xu1=xu1,x在新的这组基下的投影 x ^ = U T x \widehat{\boldsymbol{x}}=\boldsymbol{U}^{T} \boldsymbol{x} x =UTx x ^ \widehat{\boldsymbol{x}} x 就是这个原始信号在谱域的表达。如何转换回,需要对其进行逆变换 x = U x ^ x=U \widehat{x} x=Ux

  • U = { u l } l = 1 n − L 的 正 交 特 征 向 量 的 集 合 U=\boldsymbol{\left\{\boldsymbol{u}_{l}\right\}_{l=1}^{n}-L的正交特征向量的集合} U={ul}l=1nL
  • { λ l } l = 1 n − L 的 非 负 特 征 值 的 集 合 \boldsymbol{\left\{\boldsymbol{\lambda}_{l}\right\}_{l=1}^{n}-L的非负特征值的集合} {λl}l=1nL
  • 图拉普拉斯L可对角化: L = U Λ U T  where  U = [ u 1 , ⋯   , u n ] ,  and  Λ = diag ⁡ ( [ λ 1 , ⋯   , λ n ] ) \boldsymbol{ L=UΛUT where U=[u1,,un], and Λ=diag([λ1,,λn])
    }
    L=UΛUT where U=[u1,,un], and Λ=diag([λ1,,λn])

图傅里叶变换(Graph Fourier transform)

图傅里叶变换:
x ^ = U T x \widehat{\boldsymbol{x}}=\boldsymbol{U}^{T} \boldsymbol{x} x =UTx
图傅里叶逆变换:
x = U x ^ \boldsymbol{x}=\boldsymbol{U} \widehat{\boldsymbol{x}} x=Ux

谱域的卷积定理(Convolution theorem)

两个信号的卷积,可以看成他们傅里叶变换后的点积。
根据卷积定理,给定一个x作为输入,y作为卷积核,图卷积 ∗ G *_G G可表示为
【对整体进行傅里叶逆变换((对x进行傅里叶变换)点乘(对y进行傅里叶变换))】

x ∗ G y = U ( ( U T x ) ⊙ ( U T y ) ) \boldsymbol{x *_{G} y=U\left(\left(\boldsymbol{U}^{T} \boldsymbol{x}\right) \odot\left(\boldsymbol{U}^{T} y\right)\right)} xGy=U((UTx)(UTy))

  • U T y − 在 谱 域 上 的 卷 积 核 \boldsymbol{U^{T} y-在谱域上的卷积核} UTy

所以可进一步表示为:
x ∗ G y = U g θ U T x \boldsymbol{x} *_{\boldsymbol{G}} \boldsymbol{y}=\boldsymbol{U} \boldsymbol{g}_{\theta} \boldsymbol{U}^{\boldsymbol{T}} \boldsymbol{x} xGy=UgθUTx
在这里插入图片描述

谱域的图卷(Spectral Graph CNN)

在这里插入图片描述
h-非线性变换。

切比雪夫多项式近似图卷积核(ChebyNet)

在这里插入图片描述
在这里插入图片描述

图小波神经网络(Graph wavelet neural network-GWNN)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

图卷积的空间方法

初步的图重构的方法

在这里插入图片描述
在这里插入图片描述

GraphSAGE

在这里插入图片描述

Graph Convolution Network-GCN

在这里插入图片描述

Graph Attention Network-GAT

在这里插入图片描述

普通的空间方法框架-MoNet

在这里插入图片描述

图卷积谱方法和空间方法的关系

谱方法是空间方法的特例

在这里插入图片描述
在这里插入图片描述

图的卷积核

信号变换的过程
在这里插入图片描述

改进切比雪夫方法

在这里插入图片描述
在这里插入图片描述

方法对比

在这里插入图片描述
在这里插入图片描述

图池化(Graph Pooling)

图粗化(Graph coarsening)

在这里插入图片描述

节点选择(Node selection)

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/949226
推荐阅读
相关标签
  

闽ICP备14008679号