赞
踩
图卷积发展至今,早期的进展可以归纳为谱图方法和非谱图方法,这两者都存在一些挑战性问题。
此外,图结构数据往往存在大量噪声,换句话说,节点之间的连接关系有时并没有特别重要,节点的不同邻居的相对重要性也有差异。
本文提出了图注意力网络(GAT),利用masked self-attention layer,通过堆叠网络层,获取每个节点的邻域特征,为邻域中的不同节点分配不同的权重。这样做的好处是不需要高成本的矩阵运算,也不用事先知道图结构信息。通过这种方式,GAT可以解决谱图方法存在的问题,同时也能应用于归纳学习和直推学习问题。
假设一个图有 N N N个节点,节点的 F F F维特征集合可以表示为 h = { h ⃗ 1 , h ⃗ 2 , … , h ⃗ N } , h ⃗ i ∈ R F {h}=\left\{\vec{h}_{1}, \vec{h}_{2}, \ldots, \vec{h}_{N}\right\}, \vec{h}_{i} \in {R}^{F} h={h 1,h 2,…,h N},h i∈RF
注意力层的目的是输出新的节点特征集合,
h
′
=
{
h
⃗
1
′
,
h
⃗
2
′
,
…
,
h
⃗
N
′
}
,
h
⃗
i
′
∈
R
F
′
{h}^{\prime}=\left\{\vec{h}_{1}^{\prime}, \vec{h}_{2}^{\prime}, \ldots, \vec{h}_{N}^{\prime}\right\}, \vec{h}_{i}^{\prime} \in {R}^{F^{\prime}}
h′={h
1′,h
2′,…,h
N′},h
i′∈RF′。
在这个过程中特征向量的维度可能会改变,即
F
→
F
′
F \rightarrow F^{\prime}
F→F′ 为了保留足够的表达能力,将输入特征转化为高阶特征,至少需要一个可学习的线性变换。例如,对于节点
i
,
j
i,j
i,j,对它们的特征
h
⃗
i
,
h
⃗
j
\vec{h}_{i},\vec{h}_{j}
h
i,h
j应用线性变换
W
∈
R
F
′
×
F
W\in\mathbb{R}^{F^{'}\times F}
W∈RF′×F,从
F
F
F维转化为
F
′
F^{\prime}
F′ 维新特征为
h
⃗
i
′
,
h
⃗
j
′
\vec{h}_{i}^{\prime},\vec{h}_{j}^{\prime}
h
i′,h
j′:
e
i
j
=
a
(
W
h
⃗
i
,
W
h
⃗
j
)
e_{i j}=a\left({W} \vec{h}_{i}, {W} \vec{h}_{j}\right)
eij=a(Wh
i,Wh
j)
上式在将输入特征运用线性变换转化为高阶特征后,使用self-attention为每个节点分配注意力(权重)。其中 a a a表示一个共享注意力机制: R F ′ × R F ′ → R \mathbb{R}^{F^{\prime}} \times \mathbb{R}^{F^{\prime}} \rightarrow \mathbb{R} RF′×RF′→R,用于计算注意力系数 e i j e_{ij} eij,也就是节点 i i i对节点 j j j的影响力系数(标量)。
上面的注意力计算考虑了图中任意两个节点,也就是说,图中每个节点对目标节点的影响都被考虑在内,这样就损失了图结构信息。论文中使用了masked attention,对于目标节点 i i i来说,只计算其邻域内的节点 j ∈ N j\in \mathcal{N} j∈N对目标节点的相关度 e i j e_{ij} eij(包括自身的影响)。
为了更好的在不同节点之间分配权重,我们需要将目标节点与所有邻居计算出来的相关度进行统一的归一化处理,这里用softmax归一化:
α i j = softmax j ( e i j ) = exp ( e i j ) ∑ k ∈ N i exp ( e i k ) \alpha_{i j}=\operatorname{softmax}_{j}\left(e_{i j}\right)=\frac{\exp \left(e_{i j}\right)}{\sum_{k \in {N}_{i}} \exp \left(e_{i k}\right)} αij=softmaxj(eij)=∑k∈Niexp(eik)exp(eij)
关于 a a a的选择,可以用向量的内积来定义一种无参形式的相关度计算 ⟨ W h ⃗ i , W h ⃗ j ⟩ \langle {W} \vec{h}_{i}\ , {W} \vec{h}_{j} \rangle ⟨Wh i ,Wh j⟩,也可以定义成一种带参的神经网络层,只要满足 a : R d ( l + 1 ) × R d ( l + 1 ) → R a:R^{d^{(l+1)}} \times R^{d^{(l+1)}} \rightarrow R a:Rd(l+1)×Rd(l+1)→R,即输出一个标量值表示二者的相关度即可。在论文实验中, a a a是一个单层前馈神经网络,参数为权重向量 a → ∈ R 2 F ′ \overrightarrow{\mathrm{a}} \in \mathbb{R}^{2 F^{\prime}} a ∈R2F′,使用负半轴斜率为0.2的LeakyReLU作为非线性激活函数:
e i j = LeakyReLU ( a → T [ W h ⃗ i ∥ W h ⃗ j ] ) e_{ij} = \text { LeakyReLU }\left(\overrightarrow{{a}}^{T}\left[{W} \vec{h}_{i} \Vert {W} \vec{h}_{j}\right]\right) eij= LeakyReLU (a T[Wh i∥Wh j])
其中 ∥ \Vert ∥表示拼接操作。完整的权重系数计算公式为:
α i j = exp ( LeakyReLU ( a → T [ W h ⃗ i ∥ W h ⃗ j ] ) ) ∑ k ∈ N i exp ( LeakyReLU ( a → T [ W h ⃗ i ∥ W h ⃗ k ] ) ) \alpha_{i j}=\frac{\exp \left(\text { LeakyReLU }\left(\overrightarrow{{a}}^{T}\left[{W} \vec{h}_{i} \| {W} \vec{h}_{j}\right]\right)\right)}{\sum_{k \in {N}_{i}} \exp \left(\text { LeakyReLU }\left(\overrightarrow{{a}}^{T}\left[{W} \vec{h}_{i} \| {W} \vec{h}_{k}\right]\right)\right)} αij=∑k∈Niexp( LeakyReLU (a T[Wh i∥Wh k]))exp( LeakyReLU (a T[Wh i∥Wh j]))
得到归一化注意系数后,计算其对应特征的线性组合,通过非线性激活函数后,每个节点的最终输出特征向量为:
h ⃗ i ′ = σ ( ∑ j ∈ N i α i j W h ⃗ j ) \vec{h}_{i}^{\prime}=\sigma\left(\sum_{j \in {N}_{i}} \alpha_{i j} {W} \vec{h}_{j}\right) h i′=σ⎝⎛j∈Ni∑αijWh j⎠⎞
另外,本文使用多头注意力机制(multi-head attention)来稳定self-attention的学习过程,即对上式调用 K K K组相互独立的注意力机制,然后将输出结果拼接起来:
h ⃗ i ′ = ∥ k = 1 K σ ( ∑ j ∈ N i α i j k W k h ⃗ j ) \vec{h}_{i}^{\prime}=\Vert_{k=1}^{K} \sigma\left(\sum_{j \in {N}_{i}} \alpha_{i j}^{k} {W}^{k} \vec{h}_{j}\right) h i′=∥k=1Kσ⎝⎛j∈Ni∑αijkWkh j⎠⎞
其中 ∥ \Vert ∥是拼接操作, α i j k \alpha_{ij}^{k} αijk是第 k k k组注意力机制计算出的权重系数, W ( k ) W^{(k)} W(k)是对应的输入线性变换矩阵,最终输出的节点特征向量 h ⃗ i ′ \vec{h}_{i}^{\prime} h i′包含了 K F ′ KF^{\prime} KF′个特征。为了减少输出的特征向量的维度,也可以将拼接操作替换为平均操作。
h ⃗ i ′ = σ ( 1 K ∑ k = 1 K ∑ j ∈ N i α i j k W k h ⃗ j ) \vec{h}_{i}^{\prime}=\sigma\left(\frac{1}{K} \sum_{k=1}^{K} \sum_{j \in {N}_{i}} \alpha_{i j}^{k} {W}^{k} \vec{h}_{j}\right) h i′=σ⎝⎛K1k=1∑Kj∈Ni∑αijkWkh j⎠⎞
下面是 K = 3 K=3 K=3的多头注意力机制示意图。不同颜色的箭头表示不同注意力的计算过程,每个邻居做三次注意力计算,每次attention计算就是一个普通的self-attention,输出一个 h ⃗ i ′ \vec{h}_{i}^{\prime} h i′,最后将三个不同的 h ⃗ i ′ \vec{h}_{i}^{\prime} h i′进行拼接或取平均,得到最终的 h ⃗ i ′ \vec{h}_{i}^{\prime} h i′。
其中前三个引文网络用于直推学习,第四个蛋白质交互网络PPI用于归纳学习。
直推学习
归纳学习:
不同数据集的分类准确率效果对比(Transductive)
数据集PPI上的F1效果(归纳学习)
GAT层代码:
import numpy as np import torch import torch.nn as nn import torch.nn.functional as F class GraphAttentionLayer(nn.Module): """ Simple GAT layer, similar to https://arxiv.org/abs/1710.10903 """ def __init__(self, in_features, out_features, dropout, alpha, concat=True): super(GraphAttentionLayer, self).__init__() self.dropout = dropout self.in_features = in_features self.out_features = out_features self.alpha = alpha self.concat = concat self.W = nn.Parameter(torch.empty(size=(in_features, out_features))) nn.init.xavier_uniform_(self.W.data, gain=1.414) self.a = nn.Parameter(torch.empty(size=(2*out_features, 1))) nn.init.xavier_uniform_(self.a.data, gain=1.414) self.leakyrelu = nn.LeakyReLU(self.alpha) def forward(self, h, adj): Wh = torch.mm(h, self.W) # h.shape: (N, in_features), Wh.shape: (N, out_features) a_input = self._prepare_attentional_mechanism_input(Wh) e = self.leakyrelu(torch.matmul(a_input, self.a).squeeze(2)) zero_vec = -9e15*torch.ones_like(e) attention = torch.where(adj > 0, e, zero_vec) attention = F.softmax(attention, dim=1) attention = F.dropout(attention, self.dropout, training=self.training) h_prime = torch.matmul(attention, Wh) if self.concat: return F.elu(h_prime) else: return h_prime def _prepare_attentional_mechanism_input(self, Wh): N = Wh.size()[0] # number of nodes # Below, two matrices are created that contain embeddings in their rows in different orders. # (e stands for embedding) # These are the rows of the first matrix (Wh_repeated_in_chunks): # e1, e1, ..., e1, e2, e2, ..., e2, ..., eN, eN, ..., eN # '-------------' -> N times '-------------' -> N times '-------------' -> N times # # These are the rows of the second matrix (Wh_repeated_alternating): # e1, e2, ..., eN, e1, e2, ..., eN, ..., e1, e2, ..., eN # '----------------------------------------------------' -> N times # Wh_repeated_in_chunks = Wh.repeat_interleave(N, dim=0) Wh_repeated_alternating = Wh.repeat(N, 1) # Wh_repeated_in_chunks.shape == Wh_repeated_alternating.shape == (N * N, out_features) # The all_combination_matrix, created below, will look like this (|| denotes concatenation): # e1 || e1 # e1 || e2 # e1 || e3 # ... # e1 || eN # e2 || e1 # e2 || e2 # e2 || e3 # ... # e2 || eN # ... # eN || e1 # eN || e2 # eN || e3 # ... # eN || eN all_combinations_matrix = torch.cat([Wh_repeated_in_chunks, Wh_repeated_alternating], dim=1) # all_combinations_matrix.shape == (N * N, 2 * out_features) return all_combinations_matrix.view(N, N, 2 * self.out_features) def __repr__(self): return self.__class__.__name__ + ' (' + str(self.in_features) + ' -> ' + str(self.out_features) + ')'
GAT模型
import torch import torch.nn as nn import torch.nn.functional as F from layers import GraphAttentionLayer, SpGraphAttentionLayer class GAT(nn.Module): def __init__(self, nfeat, nhid, nclass, dropout, alpha, nheads): """Dense version of GAT.""" super(GAT, self).__init__() self.dropout = dropout self.attentions = [GraphAttentionLayer(nfeat, nhid, dropout=dropout, alpha=alpha, concat=True) for _ in range(nheads)] for i, attention in enumerate(self.attentions): self.add_module('attention_{}'.format(i), attention) self.out_att = GraphAttentionLayer(nhid * nheads, nclass, dropout=dropout, alpha=alpha, concat=False) def forward(self, x, adj): x = F.dropout(x, self.dropout, training=self.training) x = torch.cat([att(x, adj) for att in self.attentions], dim=1) x = F.dropout(x, self.dropout, training=self.training) x = F.elu(self.out_att(x, adj)) return F.log_softmax(x, dim=1)
图神经网络:图注意力网络(GAT) https://jjzhou012.github.io/blog/2020/01/28/Graph-Attention-Networks.html
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。