当前位置:   article > 正文

[论文笔记] 2019-AAAI-Hypergraph Neural Networks

hypergraph neural networks

1 摘要

    论文链接:https://arxiv.org/pdf/1809.09401.pdf
    代码链接:https://github.com/iMoonLab/HGNN

    本文提出了一种用于数据表示学习的超图神经网络(HGNN))框架,该框架可以在超图结构中编码高阶数据相关性。该方法设计了超边卷积运算来处理表示学习过程中的数据相关性,能够学习考虑高阶数据结构的隐层表示,是考虑复杂数据相关性的通用框架。对引文网络分类和视觉目标识别任务进行了大量实验,实验结果表明,本文提出的HGNN方法优于目前最先进的方法,同时在处理多模态数据时具有更好的性能

2 介绍

    传统图卷积神经网络方法应用数据之间成对的连接,但在实际场景中超过成对连接,甚至更复杂。社交媒体数据中,数据之间复杂的关系如图1所示。

复杂连接
    (1)数据相关性比成对关系复杂,很难用图结构来建模
    (2)数据表示趋向于多模态,例如本例中的视觉连接、文本连接和社会连接。在这种情况下,传统的图结构在表述数据相关性方面存在局限性,限制了图卷积神经网络的应用。

    为了解决上述问题,本文提出了一个超图神经网络框架(HGNN),使用超图结构对数据进行建模。与简单图的对比如图2所示。

图与超图的对比
    (1)图所有边的度均为2,而超图使用其度自由的超边能够编码高阶数据关系
    (2)图使用邻接矩阵表示,每条边连接两个顶点;而超图使用其灵活的超边很容易地扩展为多模态的数据表示(通过结合邻接矩阵,一个超图可以联合使用多模态数据生成超图)。

    因此,超图被应用于许多计算机视觉任务,如分类和检索任务。然而,传统的超图学习方法存在计算复杂度和存储成本高的问题,限制了超图学习方法的广泛应用

    本文提出了一种用于数据表示学习的超图神经网络框架(HGNN)。该方法将复杂数据相关性用超图结构表示,并设计了超边卷积运算,以更好地利用高阶数据相关性进行表示学习。更具体地说,HGNN是一个通用框架,可以包含多模态数据和复杂的数据相关性。传统的图卷积神经网络可以看作是HGNN的一个特例

3 超图神经网络

3.1 超图学习理论

    超图中的超边能连接两个或更多节点。超图定义为 G = ( V , E , W ) G = (V, E, W) G=(V,E,W) ,包含一个顶点集 V V V ,一个超边集 E E E 。每条超边被赋予一个权重,即 W W W , 是边权重的对角矩阵。超图 G G G 可以表示为一个 ∣ V ∣ × ∣ E ∣ |V| \times |E| V×E 的关联矩阵 H H H ,其项为:

h ( v , e ) = { 1 , if  v ∈ e 0 , if  v ∉ e h(v,e) =

{1,if ve0,if ve
h(v,e)={1,0,if veif v/e

    对于顶点 v ∈ V v \in V vV ,其度表示为 d ( v ) = ∑ e ∈ E w ( e ) h ( v , e ) d(v) = \sum_{e \in E} w(e) h(v,e) d(v)=eEw(e)h(v,e) 。对于边 e ∈ E e \in E eE ,其度表示为 δ ( e ) = ∑ v ∈ V h ( v , e ) \delta(e) = \sum_{v \in V} h(v,e) δ(e)=vVh(v,e) D e D_e De D v D_v Dv 分别表示边度和顶点度的对角矩阵。

    考虑超图上的节点分类问题,其中节点标签在超图结构上应该是平滑的。该任务可以表述为正则化框架:

arg ⁡ m i n f { R e m p ( f ) + Ω ( f ) } \arg \underset{f}{min} \{ R_{emp} (f) + \Omega (f) \} argfmin{Remp(f)+Ω(f)}

其中, Ω ( f ) \Omega (f) Ω(f) 是超图上的正则化, R e m p ( f ) R_{emp} (f) Remp(f) 表示监督经验损失, f ( ⋅ ) f(\cdot) f() 是分类函数。正则化 Ω ( f ) \Omega (f) Ω(f) 定义为:

Ω ( f ) = 1 2 ∑ e ∈ E ∑ { u , v } ∈ V w ( e ) h ( u , e ) h ( v , e ) δ ( e ) ( f ( u ) d ( u ) − f ( v ) d ( v ) ) 2 \Omega (f) = \frac{1}{2} \sum_{e \in E} \sum_{\{u,v \} \in V} \frac{w(e) h(u,e) h(v,e)}{\delta(e)} (\frac{f(u)}{\sqrt{d(u)}} - \frac{f(v)}{\sqrt{d(v)}})^2 Ω(f)=21eE{u,v}Vδ(e)w(e)h(u,e)h(v,e)(d(u) f(u)d(v) f(v))2

    令 θ = D v − 1 2 H W D e − 1 H T D v − 1 2 \theta = D_v^{- \frac{1}{2}} HWD_e^{-1}H^TD_v^{- \frac{1}{2}} θ=Dv21HWDe1HTDv21 Δ = I − θ \Delta = I - \theta Δ=Iθ 。正则化 Ω ( f ) \Omega (f) Ω(f) 可以写为

Ω ( f ) = f T Δ \Omega (f) = f^T \Delta Ω(f)=fTΔ

其中, Δ \Delta Δ 是半正定,通常称为超图拉普拉斯。

3.2 超图上的谱卷积

    给定一个 n n n 个顶点的超图 G = ( V , E , Δ ) G = (V, E, \Delta) G=(V,E,Δ) ,由于超图拉普拉斯 Δ \Delta Δ 是一个 n × n n \times n n×n 的半正定矩阵,利用特征分解 Δ = Φ Λ Φ T \Delta = \Phi \Lambda \Phi^T Δ=ΦΛΦT 得到标准正交特征向量 Φ = d i a g ( ϕ 1 , ⋯   , ϕ n ) \Phi = diag(\phi_1, \cdots , \phi_n) Φ=diag(ϕ1,,ϕn) 和一个包含对应非负特征值的对角矩阵 Λ = d i a g ( λ 1 , ⋯   , λ n ) \Lambda = diag(\lambda_1, \cdots, \lambda_n) Λ=diag(λ1,,λn) 。然后,超图上的一个信号 x = ( x 1 , ⋯   , x n ) x = (x_1, \cdots, x_n) x=(x1,,xn) 的傅里叶变换定义为 x ^ = Φ T x \hat{x} = \Phi^T x x^=ΦTx ,其中将特征向量视为傅里叶基,将特征值解释为频率。信号 x x x 与滤波器 g g g 的谱卷积可表示为

g × x = Φ ( ( Φ T g ) ⊙ ( Φ T x ) ) = Φ g ( Λ ) Φ T x g \times x = \Phi((\Phi^T g) \odot (\Phi^T x)) = \Phi g(\Lambda) \Phi^T x g×x=Φ((ΦTg)(ΦTx))=Φg(Λ)ΦTx

其中, ⊙ \odot 表示元素级Hadamard product, g ( Λ ) = d i a g ( g ( λ 1 ) , ⋯   , g ( λ n ) ) g(\Lambda) = diag(g(\lambda_1), \cdots, g(\lambda_n)) g(Λ)=diag(g(λ1),,g(λn)) 是傅里叶系数函数。然而,正与反傅里叶变换的计算复杂度为 O ( n 2 ) O(n^2) O(n2) 。为了解决这一问题,使用 K K K 阶多项式参数化 g ( Λ ) g(\Lambda) g(Λ) 。使用截断的切比雪夫展开这样的多项式。切比雪夫多项式 T k ( x ) T_k(x) Tk(x) 通过 T k ( x ) = 2 x T k − 1 ( x ) − T k − 2 ( x ) T_k(x) = 2 x T_{k-1}(x) - T_{k-2}(x) Tk(x)=2xTk1(x)Tk2(x) 递归计算, T 0 ( x ) = 1 T_0(x) =1 T0(x)=1 T 1 ( x ) = x T_1(x) = x T1(x)=x 。因此, g ( Λ ) g(\Lambda) g(Λ) 可以参数化为

g × x ≈ ∑ k = 0 K θ k T k ( Δ ~ ) x g \times x \approx \sum_{k=0}^K \theta_k T_k (\tilde{\Delta})x g×xk=0KθkTk(Δ~)x

其中, T k ( Δ ~ ) T_k(\tilde{\Delta}) Tk(Δ~) k k k 阶切比雪夫多项式, Δ ~ = 2 λ m a x Δ − I \tilde{\Delta} = \frac{2}{\lambda_{max}} \Delta - I Δ~=λmax2ΔI。在上式中,排除了拉普拉斯特征向量的展开计算,只考虑矩阵幂、加法和乘法,进一步提高了计算复杂度。可以进一步让 K = 1 K = 1 K=1 来限制卷积运算的阶数,因为超图中的拉普拉斯算子已经可以很好地表示节点之间的高阶相关。由于神经网络的尺度适应性, λ m a x ≈ 2 \lambda_{max} \approx 2 λmax2 。然后,将卷积运算进一步简化为

g × x ≈ θ 0 x − θ 1 D v − 1 2 H W D e − 1 H T D v − 1 2 x g \times x \approx \theta_0 x - \theta_1 D_v^{- \frac{1}{2}} HWD_e^{-1}H^TD_v^{- \frac{1}{2}}x g×xθ0xθ1Dv21HWDe1HTDv21x

其中, θ 0 \theta_0 θ0 θ 1 \theta_1 θ1 为所有节点的滤波器参数。进一步使用单一参数 θ \theta θ 来避免过拟合问题,它被定义为

{ θ 1 = − 1 2 θ θ 0 = 1 2 θ D v − 1 2 H W D e − 1 H T D v − 1 2

{θ1=12θθ0=12θDv12HWDe1HTDv12
{θ1=21θθ0=21θDv21HWDe1HTDv21

    因此,卷积操作可以被简化为

g × x ≈ 1 2 θ D v − 1 2 H ( W + I ) D e − 1 H T D v − 1 2 x ≈ θ D v − 1 2 H W D e − 1 H T D v − 1 2 x

g×x12θDv12H(W+I)De1HTDv12xθDv12HWDe1HTDv12x
g×x21θDv21H(W+I)De1HTDv21xθDv21HWDe1HTDv21x

其中, ( W + I ) (W + I) (W+I) 可视为超边的权值。 W W W 初始化为单位矩阵,这意味着所有超边的权值相等。

    当有一个具有 n n n 个节点和 C 1 C_1 C1 维特征的超图信号 X ∈ R n × C 1 X \in \mathbb{R}^{n \times C_1} XRn×C1 时,超边卷积可以表示为

Y = D V − 1 2 H W D e − 1 H T D V − 1 2 X Θ Y = D_V^{- \frac{1}{2}} HWD_e^{-1}H^TD_V^{- \frac{1}{2}}X \Theta Y=DV21HWDe1HTDV21XΘ

其中, W = d i a g ( w 1 , ⋯   , w n ) W = diag(w_1, \cdots, w_n) W=diag(w1,,wn) Θ ∈ R C 1 × C 2 \Theta \in \mathbb{R}^{C_1 \times C_2} ΘRC1×C2 是在训练过程中要学习的参数。过滤器 Θ \Theta Θ 应用于超图中的节点以提取特征。卷积后可得到 Y ∈ R n × C 2 Y \in \mathbb{R}^{n \times C_2} YRn×C2 ,可用于分类。

3.3 超图神经网络分析

HGNN
    图3展示了超图神经网络的细节。利用多模态数据集的复杂相关性构造多个超边缘结构组。将超边组连接起来,生成超图相邻矩阵 H H H ,将超图相邻矩阵 H H H 和节点特征输入到HGNN中,得到节点输出标签。可以用以下公式构建超边缘卷积层 f ( X , W , Θ ) f(X, W, \Theta) f(X,W,Θ)

X ( l + 1 ) = σ ( D v − 1 2 H W D e − 1 H T D v − 1 2 X ( l ) Θ ( l ) ) X^{(l+1)} = \sigma (D_v^{- \frac{1}{2}} HWD_e^{-1}H^TD_v^{- \frac{1}{2}}X^{(l)} \Theta^{(l)}) X(l+1)=σ(Dv21HWDe1HTDv21X(l)Θ(l))

其中, X ( l ) ∈ R N × C X^{(l)} \in \mathbb{R}^{N \times C} X(l)RN×C 是超图在 l l l 层的信号, X ( 0 ) = X X^{(0)} = X X(0)=X σ \sigma σ 表示非线性激活函数。

超图卷积层

    如图4所示,HGNN层可以进行节点边-节点转换,利用超图结构可以更好地细化特征。具体来说,首先通过可学习滤波器矩阵 Θ ( l ) \Theta ^{(l)} Θ(l) 对初始节点特征 X ( 1 ) X^{(1)} X(1) 进行处理,提取出 C 2 C_2 C2 维特征。然后根据超边集合节点特征,形成超边特征 R E × C 2 \mathbb{R}^{E \times C_2} RE×C2,通过乘以 H T ∈ R E × N H^T \in \mathbb{R}^{E \times N} HTRE×N 来实现。最后通过聚合它们相关的超边缘特征得到输出节点特征,超边缘特征通过乘以矩阵 H H H 来实现,上式中 D v D_v Dv D e D_e De 起到归一化的作用。因此,HGNN层可以通过节点-边-节点变换有效地提取超图上的高阶相关。

描述

3.4 实现

3.4.1 超图构建

    在视觉目标分类任务中, N N N 个视觉目标数据的特征可以表示为 X = [ x 1 , ⋯   , x n ] T X = [x_1, \cdots, x_n]^T X=[x1,,xn]T 。根据两个特征之间的距离来构建超图。更具体地说,用欧氏距离来计算 d ( x i , x j ) d(x_i, x_j) d(xi,xj) 。在构造中,每个顶点代表一个视觉对象,每个超边由一个顶点与其 K K K 个最近邻居连接而成,这就产生了 N N N 个超边,连接 K + 1 K + 1 K+1 个顶点。因此,得到关联矩阵 H ∈ R N × N H \in \mathbb{R}^{N \times N} HRN×N ,其中 N × ( K + 1 ) N \times (K + 1) N×(K+1) 项等于1,其他项等于0。在引用网络分类中,数据以图的结构进行组织,每个超边是根据图上的邻接关系将一个顶点与其相邻顶点连接起来建立的。所以也有 N N N 条超边和 H ∈ R N × N H \in \mathbb{R}^{N \times N} HRN×N

3.4.2 节点分类模型

    构建一个两层HGNN模型。使用softmax函数生成预测标签。在训练过程中,反向传播训练数据的交叉熵损失以更新参数 Θ \Theta Θ ;在测试过程中,预测测试数据的标签以评估性能。当存在多模态信息时,通过构造超边组将多模态信息合并,然后将各种超边融合在一起,建立数据间的复杂关系模型。

4 实验

    该部分请见原文!

5 总结

    本文提出了一个超图神经网络(HGNN)的框架。在该方法中,HGNN将卷积运算推广到超图学习过程。谱域上的卷积用超图拉普拉斯进行,并用截断切比雪夫多项式进一步逼近。与传统图相比,HGNN是一个更通用的框架,它能够通过超图结构处理复杂的高阶相关性进行表示学习。在引文网络分类和视觉目标识别任务上进行了实验,以评估所提出的HGNN方法的性能。实验结果以及与现有方法的比较表明,该模型具有较好的性能。HGNN能够将复杂的数据相关性引入表示学习,从而在视觉识别、检索和数据分类等许多任务中具有广泛的应用潜力。

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号