当前位置:   article > 正文

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现_self.activation = f.relu

self.activation = f.relu

01

大话图神经网络

看了挺久的图神经网络,从一窍不通到略懂一二,今天想表达一些在GCN,GraghSAGE,GAT等图神经网络的特征集成(聚合)思想,一方面,让更多人学习到图神经网络的本质,另一方面,加深自己对知识的记忆。

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

02

什么是图,有什么特点?

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

图作为一种特殊的数据结构,为非欧式空间:1)局部输入维度可变,表现为每个节点的邻居节点数量不同;2)排列无序,表现为节点之间只存在连接关系不存在先后顺序。而图结构即使邻居节点数量相同的情况下,也需要根据一定规律,比如度的大小,将节点进行排序使得用一阶邻居节点表示的每个节点是唯一的。不像排列规则的图像和自然语言可以通过CNN或者RNN进行处理并得到较好的效果,而CNN或者RNN在图结构数据上的效果一般较差或者不能使用

03

图如何表示?

对于图,我们习惯上用 

表示。这里V是图中节点的集合,而E为边的集合,这里记图的节点数为N。其中有3个比较重要的矩阵:

  • 邻接矩阵A:adjacency matrix,用来表示节点间的连接关系,这里我们假定是0-1矩阵;
  • 度矩阵D:degree matrix,每个节点的度指的是其连接的节点数,这是一个对角矩阵,其中对角线元素
  • 特征矩阵X:用于表示节点的特征,这里F是特征的维度;使用连续,低维度,实数向量进行分布式表示,特征矩阵通常通过FM矩阵分解,DeepWalk随机游走,基于图神经网络的监督和半监督学习等方式获得图嵌入表征

数学表示是比较抽象的,下面是邻接矩阵实例:数学表示是比较抽象的,下面是邻接矩阵实例:

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

04

图节点如何表征?

其实我们可以将上述学习分成三个部分:

  • 变换(transform):对当前的节点特征进行变换学习,这里就是乘法规则(XW),其中X为节点表征,W为模型权重
  • 聚合(aggregate):通过邻接矩阵聚合领域节点的特征,得到该节点的新特征,根据聚合节点的权重是否可学习可以分为GCN和GAT,GCN直接采用邻接矩阵作为权重聚合邻居节点和自身节点作为当前节点的表征,GAT通过学习邻居节点对当前节点的重要程度的权重,通过加权得到节点的表征;根据聚合节点是否通过采样获得全局图卷积和局部图卷积
  • 激活(activate):采用激活函数,增加非线性

下面我们分别介绍GCN,GraghSAGE,GAT的图神经网络的特征聚合思路和实现

全图卷积神经网络-GCN

我们不用太过纠结GCN为什么叫GCN,只需要知道它是一种将当前节点特征和一阶节点特征进行聚合来表征当前节点的新特征,通过这种方式有利于引入图节点的上下文信息,使得每个节点预测结果受邻居节点的影响,那么具体怎么集成呢?由于邻接矩阵可以表示节点之间的连接关系,我们可以在邻接矩阵上稍作调整,添加单位矩阵来结合节点自身的连接,并进行归一化,每一行表示一个节点与其他节点的连接权重大小,并作为当前节点的特征集成权重。

我们也可以将调整后的邻接矩阵看成是一种掩码(MASK),每一行权重为0的位置表示其对当前节点的聚合特征没有影响,由于这种权重本身由图的连接情况决定,是【固定的】和【不可学习的】,这种基于【整个图】结构的特征聚合网络就是GCN,属于转导学习。

下面介绍两种不同的聚合方式:

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

聚合方法1:

通过将当前节点的特征向量与其一阶节点的特征向量【加和平均】的方式进行聚合来表征当前节点的上下文表征向量,这种方法只考虑了当前节点的连接情况,没有考虑其一阶节点的连接情况,容易造成节点的度越大,参与的节点特征聚合次数越多,而这种度越大的节点本身特殊性应该越弱,影响应该进行削弱。具体实现:

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

这个公式中:

  • ,I是单位矩阵
  • 是A波浪的度矩阵(degree matrix)
  • X是每一层的特征
  • W神经网络模型权重参数
  • σ是非线性激活函数

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

聚合方法2:

我们通过将当前节点的特征向量与其一阶节点的特征向量【加权求和】的方式进行聚合来表征当前节点的上下文表征向量,但考虑到方法1的不足,这种方法每个节点的聚合权重除了和自身的连接数相关,也和一阶节点的连接数【度】相关,度越大的节点,说明普遍性越强,重要度反而越低--简单解释,就和一篇文章中,如果一个词出现次数越多,那么它的重要程度越低,比如最容易出现的【的,得,地】等,节点也是类似,有点反直觉吧,具体实现:

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

这个公式中:

  • ,I是单位矩阵
  • 是A波浪的度矩阵(degree matrix)
  • X是每一层的特征
  • W神经网络模型权重参数
  • σ是非线性激活函数

主要特点

1)需要基于全图获得邻接矩阵和训练,在计算资源有限的情况下,无法拓展到大规模图结构的模型训练与预测

2)属于转导学习,无法应用于未见过的节点预测或者应用于新的图结构

3)图卷积的层数反映了节点的感受野大小,n阶

Pytorch实现GCN

参考论文:Semi-Supervised Classification with Graph Convolutional Networks

https://arxiv.org/abs/1609.02907

  1. class GraphConvolution(nn.Module):
  2. def __init__(self, input_dim, output_dim, use_bias=True):
  3. """图卷积:L*X*\theta
  4. Args:
  5. ----------
  6. input_dim: int
  7. 节点输入特征的维度
  8. output_dim: int
  9. 输出特征维度
  10. use_bias : bool, optional
  11. 是否使用偏置
  12. """
  13. super(GraphConvolution, self).__init__()
  14. self.input_dim = input_dim
  15. self.output_dim = output_dim
  16. self.use_bias = use_bias
  17. self.weight = nn.Parameter(torch.Tensor(input_dim, output_dim))
  18. if self.use_bias:
  19. self.bias = nn.Parameter(torch.Tensor(output_dim))
  20. else:
  21. self.register_parameter('bias', None)
  22. self.reset_parameters()
  23. def reset_parameters(self):
  24. init.kaiming_uniform_(self.weight)
  25. if self.use_bias:
  26. init.zeros_(self.bias)
  27. def forward(self, adjacency, input_feature):
  28. """邻接矩阵是稀疏矩阵,因此在计算时使用稀疏矩阵乘法
  29. Args:
  30. -------
  31. adjacency: torch.sparse.FloatTensor
  32. 邻接矩阵
  33. input_feature: torch.Tensor
  34. 输入特征
  35. """
  36. support = torch.mm(input_feature, self.weight)
  37. output = torch.sparse.mm(adjacency, support)
  38. if self.use_bias:
  39. output += self.bias
  40. return output
  41. def __repr__(self):
  42. return self.__class__.__name__ + ' (' + str(self.input_dim) + ' -> ' + str(self.output_dim) + ')'
  43. # 模型定义
  44. # 读者可以自己对GCN模型结构进行修改和实验
  45. class GcnNet(nn.Module):
  46. """
  47. 定义一个包含两层GraphConvolution的模型
  48. """
  49. def __init__(self, input_dim=1433):
  50. super(GcnNet, self).__init__()
  51. self.gcn1 = GraphConvolution(input_dim, 16)
  52. self.gcn2 = GraphConvolution(16, 7)
  53. def forward(self, adjacency, feature):
  54. h = F.relu(self.gcn1(adjacency, feature))
  55. logits = self.gcn2(adjacency, h)
  56.         return logits

局部图卷积神经网络-GraghSAGE

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

考虑到GCN的缺点,GraghSAGE通过局部采样的方法,为每个节点采样固定的n阶邻接节点个数,每一层神经网络通过聚合中心节点和邻居节点的特征作为此中心节点的新的上下文表征,且同一层不同节点共享聚合参数。

主要特点

1)使用这种方式,神经网络可以进行小批量的模型训练,而不需要输入整个图结构,可以用于大规模图结构的训练

2)训练过程未使用测试过程的数据,可以用于未见节点的预测,属于归纳学习

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

Pytorch实现GraghSAGE

  1. class NeighborAggregator(nn.Module):
  2. def __init__(self, input_dim, output_dim,
  3. use_bias=False, aggr_method="mean"):
  4. """聚合节点邻居
  5. Args:
  6. input_dim: 输入特征的维度
  7. output_dim: 输出特征的维度
  8. use_bias: 是否使用偏置 (default: {False})
  9. aggr_method: 邻居聚合方式 (default: {mean})
  10. """
  11. super(NeighborAggregator, self).__init__()
  12. self.input_dim = input_dim
  13. self.output_dim = output_dim
  14. self.use_bias = use_bias
  15. self.aggr_method = aggr_method
  16. self.weight = nn.Parameter(torch.Tensor(input_dim, output_dim))
  17. if self.use_bias:
  18. self.bias = nn.Parameter(torch.Tensor(self.output_dim))
  19. self.reset_parameters()
  20. def reset_parameters(self):
  21. init.kaiming_uniform_(self.weight)
  22. if self.use_bias:
  23. init.zeros_(self.bias)
  24. def forward(self, neighbor_feature):
  25. if self.aggr_method == "mean":
  26. aggr_neighbor = neighbor_feature.mean(dim=1)
  27. elif self.aggr_method == "sum":
  28. aggr_neighbor = neighbor_feature.sum(dim=1)
  29. elif self.aggr_method == "max":
  30. aggr_neighbor = neighbor_feature.max(dim=1)
  31. else:
  32. raise ValueError("Unknown aggr type, expected sum, max, or mean, but got {}"
  33. .format(self.aggr_method))
  34. neighbor_hidden = torch.matmul(aggr_neighbor, self.weight)
  35. if self.use_bias:
  36. neighbor_hidden += self.bias
  37. return neighbor_hidden
  38. def extra_repr(self):
  39. return 'in_features={}, out_features={}, aggr_method={}'.format(
  40. self.input_dim, self.output_dim, self.aggr_method)
  41. class SageGCN(nn.Module):
  42. def __init__(self, input_dim, hidden_dim,
  43. activation=F.relu,
  44. aggr_neighbor_method="mean",
  45. aggr_hidden_method="sum"):
  46. """SageGCN层定义
  47. Args:
  48. input_dim: 输入特征的维度
  49. hidden_dim: 隐层特征的维度,
  50. 当aggr_hidden_method=sum, 输出维度为hidden_dim
  51. 当aggr_hidden_method=concat, 输出维度为hidden_dim*2
  52. activation: 激活函数
  53. aggr_neighbor_method: 邻居特征聚合方法,["mean", "sum", "max"]
  54. aggr_hidden_method: 节点特征的更新方法,["sum", "concat"]
  55. """
  56. super(SageGCN, self).__init__()
  57. assert aggr_neighbor_method in ["mean", "sum", "max"]
  58. assert aggr_hidden_method in ["sum", "concat"]
  59. self.input_dim = input_dim
  60. self.hidden_dim = hidden_dim
  61. self.aggr_neighbor_method = aggr_neighbor_method
  62. self.aggr_hidden_method = aggr_hidden_method
  63. self.activation = activation
  64. self.aggregator = NeighborAggregator(input_dim, hidden_dim,
  65. aggr_method=aggr_neighbor_method)
  66. self.dropout=nn.Dropout(0.5)
  67. self.weight = nn.Parameter(torch.Tensor(input_dim, hidden_dim))
  68. self.reset_parameters()
  69. def reset_parameters(self):
  70. init.kaiming_uniform_(self.weight)
  71. def forward(self, src_node_features, neighbor_node_features):
  72. neighbor_hidden = self.aggregator(neighbor_node_features)
  73. self_hidden = torch.matmul(src_node_features, self.weight)
  74. # self_hidden=self.dropout(self_hidden)
  75. if self.aggr_hidden_method == "sum":
  76. hidden = self_hidden + neighbor_hidden
  77. elif self.aggr_hidden_method == "concat":
  78. hidden = torch.cat([self_hidden, neighbor_hidden], dim=1)
  79. else:
  80. raise ValueError("Expected sum or concat, got {}"
  81. .format(self.aggr_hidden))
  82. if self.activation:
  83. return self.activation(hidden)
  84. else:
  85. return hidden
  86. def extra_repr(self):
  87. output_dim = self.hidden_dim if self.aggr_hidden_method == "sum" else self.hidden_dim * 2
  88. return 'in_features={}, out_features={}, aggr_hidden_method={}'.format(
  89. self.input_dim, output_dim, self.aggr_hidden_method)
  90. class GraphSage(nn.Module):
  91. def __init__(self, input_dim, hidden_dim,
  92. num_neighbors_list):
  93. super(GraphSage, self).__init__()
  94. self.input_dim = input_dim
  95. self.hidden_dim = hidden_dim
  96. self.num_neighbors_list = num_neighbors_list
  97. self.num_layers = len(num_neighbors_list)
  98. self.gcn = nn.ModuleList()
  99. self.gcn.append(SageGCN(input_dim, hidden_dim[0]))
  100. for index in range(0, len(hidden_dim) - 2):
  101. self.gcn.append(SageGCN(hidden_dim[index], hidden_dim[index+1]))
  102. self.gcn.append(SageGCN(hidden_dim[-2], hidden_dim[-1], activation=None))
  103. def forward(self, node_features_list):
  104. hidden = node_features_list
  105. for l in range(self.num_layers):
  106. next_hidden = []
  107. gcn = self.gcn[l]
  108. for hop in range(self.num_layers - l):
  109. src_node_features = hidden[hop]
  110. src_node_num = len(src_node_features)
  111. neighbor_node_features = hidden[hop + 1] \
  112. .view((src_node_num, self.num_neighbors_list[hop], -1))
  113. h = gcn(src_node_features, neighbor_node_features)
  114. next_hidden.append(h)
  115. hidden = next_hidden
  116. return hidden[0]

图注意力神经网络-GAT

上述两种方式的聚合权重是不可学习的,那么不同的邻居节点对中心节点的关联程度应该是不一样的,我们希望通过神经网络学习到节点之间隐含关联程度,并作为权重进行特征聚合。由于节点的度是不固定的,我们很容易联想到使用attention机制进行对齐,并使用邻接矩阵作为掩码(MASK)屏蔽非邻居节点对聚合权重的影响。

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

深入浅出带你读懂图卷积神经网络原理和pytorch代码实现

Pytorch实现GAT

  1. import torch
  2. import torch.nn as nn
  3. import torch.nn.functional as F
  4. class GraphAttentionLayer(nn.Module):
  5. """
  6. Simple GAT layer, similar to https://arxiv.org/abs/1710.10903
  7. """
  8. def __init__(self, in_features, out_features, dropout, alpha, concat=True):
  9. super(GraphAttentionLayer, self).__init__()
  10. self.dropout = dropout
  11. self.in_features = in_features
  12. self.out_features = out_features
  13. self.alpha = alpha
  14. self.concat = concat
  15. self.W = nn.Parameter(torch.zeros(size=(in_features, out_features)))
  16. nn.init.xavier_uniform_(self.W.data, gain=1.414)
  17. self.Q = nn.Parameter(torch.zeros(size=(in_features, out_features)))
  18. nn.init.xavier_uniform_(self.Q.data, gain=1.414)
  19. self.V = nn.Parameter(torch.zeros(size=(in_features, out_features)))
  20. nn.init.xavier_uniform_(self.V.data, gain=1.414)
  21. self.a = nn.Parameter(torch.zeros(size=(2*out_features, 1)))
  22. nn.init.xavier_uniform_(self.a.data, gain=1.414)
  23. self.leakyrelu = nn.LeakyReLU(self.alpha)
  24. def forward(self, input, adj):
  25. h = torch.mm(input, self.W)
  26. q = torch.mm(input, self.Q)
  27. v = torch.mm(input, self.V)
  28. N = h.size()[0]
  29. a_input = torch.cat([h.repeat(1, N).view(N * N, -1), q.repeat(N, 1)], dim=1).view(N, -1, 2 * self.out_features)
  30. e = self.leakyrelu(torch.matmul(a_input, self.a).squeeze(2))
  31. zero_vec = -9e15*torch.ones_like(e)
  32. attention = torch.where(adj > 0, e, zero_vec)
  33. attention = F.softmax(attention, dim=1)
  34. attention = F.dropout(attention, self.dropout, training=self.training)
  35. h_prime = torch.matmul(attention, v)
  36. if self.concat:
  37. return F.elu(h_prime)
  38. else:
  39. return h_prime
  40. def __repr__(self):
  41. return self.__class__.__name__ + ' (' + str(self.in_features) + ' -> ' + str(self.out_features) + ')'
  42. class GAT(nn.Module):
  43. def __init__(self, nfeat, nhid, nclass, dropout, alpha, nheads):
  44. """Dense version of GAT."""
  45. super(GAT, self).__init__()
  46. self.dropout = dropout
  47. self.attentions = [GraphAttentionLayer(nfeat, nhid, dropout=dropout, alpha=alpha, concat=True) for _ in range(nheads)]
  48. for i, attention in enumerate(self.attentions):
  49. self.add_module('attention_{}'.format(i), attention)
  50. self.out_att = GraphAttentionLayer(nhid * nheads, nclass, dropout=dropout, alpha=alpha, concat=False)
  51. def forward(self, x, adj):
  52. x = F.dropout(x, self.dropout, training=self.training)
  53. x = torch.cat([att(x, adj) for att in self.attentions], dim=1)
  54. x = F.dropout(x, self.dropout, training=self.training)
  55. x = F.elu(self.out_att(x, adj))
  56. return F.log_softmax(x, dim=1)

推荐下我自己建的Python学习群:[856833272],群里都是学Python的,如果你想学或者正在学习Python ,欢迎你加入,大家都是软件开发党,不定期分享干货,还有免费直播课程领取。包括我自己整理的一份2021最新的Python进阶资料和零基础教学,欢迎进阶中和对Python感兴趣的小伙伴加入!还可以扫码加VX领取资料哦!


 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/306145
推荐阅读
相关标签
  

闽ICP备14008679号