当前位置:   article > 正文

深度学习 - 33.GraphEmbedding Node2vec 图文详解

node2vec

一.引言

前面介绍了如何生成带权的图: GraphEmbedding - networkx获取图结构

从带权的图随机游走生成序列: GraphEmbedding - DeepWalk 随机游走

embedding 向量的评估与可视化: GraphEmbedding - embedding 向量的降维与可视化

以及复杂度O(1)的采样算法 Alias: GraphEmbedding - Alias 采样图文详解

还有二叉树搜索的 DFS 与 BFS: 二叉树的遍历 DFS 与 BFS

结合上面5个知识点,今天引出 Node2vec 算法,Node2vec 结合了上面几篇文章的内容,同时也引进了自己的创新,比 DeepWalk 更常见也更有效。

二.Node2vec 算法

1.Node2vec 简介

说起 Node2vec 还是要提一下 DeepWalk,DeepWalk 基于图随机游走,默认各个边的权重为1,其更偏向于 DFS 即深度优先搜索,DFS 的好处是搜索的全局性好,但是对于较远的邻居的 embedding 表征作用不大,这时还有 BFS 广度优先搜索,其对周围邻居的覆盖程度较高,但是搜索偏局部,无法感知稍远的邻居节点,Node2vec 的出现就是结合 DFS 与 BFS 的优点,从而对局部和全局进行了折中,得到了质量更高的采样序列。

2.Node2vec 理论

A.基于 Edge 的转移概率

       

上面提到了DFS 和 BFS,在 Node2vec 中,通过 p,q 参数控制游走更偏向于全局搜索 DFS 还是局部搜索 BFS,假设当前节点从 t 走到 v 点,从 v 选择下一个邻居节点时,不再是等概率随机选择,而是对原始权重进行 P,Q修正,最终归一化得到选择不同节点的概率。

\alpha_{pq}(t,x) 代表v的邻居与上一个起始点t的关系

d_{tx}=0 代表v又重新返回起始点t,其边权重的修正参数为 α=1/p

d_{tx}=1 代表从新起点v出发到达的下一个邻居和上一个起始点t也存在边的关系,此时距离为1,α=1

d_{tx}=2 代表从新起点v出发到达的下一个邻居与上一个起始点t不存在关系,所以距离为2, α=1/q

基于调节参数 \alpha_{pq}(t,x) 和边的原始权重  w_{t,x} 可以得到上一条路径为 t -> v,v向其邻居 N(v) 的整体转移概率,我们称之为基于edge的转移概率:

                               [P(transform | (t,v)) = \alpha_{pq}(t,x) * w_{t,x} \ \ for \ x \ \in N(x)]  

B.基于 Node 的转移概率                        ​

除了基于 edge 的转移概率,还有最基础的基于节点的转移概率,此时不考虑p,q参数,因为不涉及距离问题,从顶点 u 出发到任意u的邻居其距离均为1,所以 d_{u,x} 均为1,此时 α=1,原始权重为 w_{t,x},对于任意一点 v,v向其邻居 N(v) 的整体转移概率,我们称之为基于 node 的转移概率:

                                 [P(transform | (t,v)) = w_{t,x} \ \ for \ x \ \in N(x)]

 C.采样

基于图中所有 Node 的转移概率与 Edge 的转移概率,结合 Alias 生成 AliasTable,后续按概率 AliasSample 即可,通过调整 p,q 参数,调整游走序列在 DFS 和 BFS 的偏重:

P: 采样中 p 控制从 v 回到起始点 t 的概率,所以是回撤概率,p越大,回撤的概率越小

Q: 采样中 q 控制 t->v-> 新节点的概率,如果 q > 1 游走偏向于访问局部的节点(BFS),因为此时 1>1/q ,如果 q < 1,游走偏向于访问全局的节点(DFS),因为此时 1 < 1/q

3.Node2vec 伪代码

A.node2vecWalk

这部分负责随机游走生成关注关系序列,需要用到原始node u,游走长度 l,对当前节点进行 AliasSample 获取游走序列

B.LearnFeatures

除了初始化游走长度外,定义向量维度 d,回撤概率 p,转出概率 q,最后通过 stochastic gradient descent 随机梯度下降的学习器对 walk 得到的的多个序列 walks 训练,得到每个节点的 embedding,这里常用的是 Word2vec

 三.Node2vec 实践

根据上面的 node2vevWalk 与 leranFeatures 我们大致理一下需要哪些步骤:

A.生成一个带权的关注关系图,并获取图中节点,边以及对应的权重

B.为每一个点,每一条边生成基于 Node 和基于 Edge 的转移概率并生成 Alias Table

C.根据epoch和walk length 以及 Alias Table 进行 Alias Sample 获取游走序列

D.通过 Word2vec 方法对数据训练并获得向量 Embedding

跟随上面的思路操作一下

1.生成带权图

1-1 构造图通过 Random 随机模拟关注关系图的原始节点与权重,node_num 控制节点数,sample_num 控制该关系图的边的大致数量

1-2 获取带权图,通过 networkx 读取 1.1 生成的图并加载权重 weight

1-3 通过 .nodes() 和 .edges() 方法获取模拟图的节点与边

  1. # 1-1 构造图
  2. edge_file = "./data/test_edges.txt"
  3. node_num = 100
  4. sample_num = 1000
  5. def createGraph():
  6. f = open(edge_file, "w")
  7. for i in range(sample_num):
  8. from = random.randint(0, node_num)
  9. to = random.randint(0, node_num)
  10. weight = random.random()
  11. if from != to:
  12. f.write("%s %s %s\n" % (from, to, weight))
  13. f.close()
  14. createGraph()
  15. # 1-2 获取带权图
  16. def loadGraph(fileName):
  17. G = nx.read_edgelist(fileName, create_using=nx.DiGraph(), nodetype=None, data=[('weight', float)])
  18. return G
  19. G = loadGraph(edge_file)
  20. # 1-3 获取图的节点与边
  21. nodes = G.nodes()
  22. edges = G.edges()
  23. nodes_list = list(nodes)

2.生成Alias Table

2.1 create_alias_table 方法通过将转移概率归一化并生成对应的 Alias Table,建表复杂度 O(n),这里再重复一下之前的需求,Node2vec 在概率游走前需要进行初始化,获取 Node 的转移概率表 alias_nodes 和 Edge 的转移概率表 alias_edge,前者决定当前顶点需要访问的下一个节点的 Alias Table,后者则决定条件概率下 (t,v) 边访问到 v 点时,v 的下一个节点的 Alias Table

  1. import numpy as np
  2. def create_alias_table(transform_prob):
  3. print("归一化前:", transform_prob)
  4. # 当前node的邻居的nbr的转移概率之和
  5. norm_const = sum(transform_prob)
  6. # 当前node的邻居的nbr的归一化转移概率
  7. normalized_prob = [float(u_prob) / norm_const for u_prob in transform_prob]
  8. print("归一化后:", normalized_prob)
  9. length = len(transform_prob)
  10. # 建表复杂度o(N)
  11. accept, alias = [0] * length, [0] * length
  12. # small,big 存放比1小和比1大的索引
  13. small, big = [], []
  14. # 归一化转移概率 * 转移概率数
  15. transform_N = np.array(normalized_prob) * length
  16. print("归一化 * N 后:", transform_N)
  17. # 根据概率放入small large
  18. for i, prob in enumerate(transform_N):
  19. if prob < 1.0:
  20. small.append(i)
  21. else:
  22. big.append(i)
  23. while small and big:
  24. small_idx, large_idx = small.pop(), big.pop()
  25. accept[small_idx] = transform_N[small_idx]
  26. alias[small_idx] = large_idx
  27. transform_N[large_idx] = transform_N[large_idx] - (1 - transform_N[small_idx])
  28. if np.float32(transform_N[large_idx]) < 1.:
  29. small.append(large_idx)
  30. else:
  31. big.append(large_idx)
  32. while big:
  33. large_idx = big.pop()
  34. accept[large_idx] = 1
  35. while small:
  36. small_idx = small.pop()
  37. accept[small_idx] = 1
  38. return accept, alias

2.2 计算 Edge 的条件转移概率

这里 p,q 即为回撤概率和深度搜索概率,可以进行调节,内部 for 循环就是根据上图和 d_{t,x} 的距离进行节点间的权重生成

  1. def get_alias_edge(G, t, v, p=1.0, q=1.0):
  2. G = G
  3. p = p
  4. q = q
  5. unnormalized_probs = []
  6. # T -> V 对于V的邻居 nbr=T dtx=0 | 1步到位 dtx=1 | T -> V -> V-nbr dtx=2
  7. for x in G.neighbors(v):
  8. weight = G[v][x].get('weight', 1.0) # w_vx
  9. if x == t: # d_tx == 0
  10. unnormalized_probs.append(weight / p)
  11. elif G.has_edge(x, t): # d_tx == 1
  12. unnormalized_probs.append(weight)
  13. else: # d_tx = 2
  14. unnormalized_probs.append(weight / q)
  15. norm_const = sum(unnormalized_probs)
  16. normalized_probs = [float(u_prob) / norm_const for u_prob in unnormalized_probs]
  17. return create_alias_table(normalized_probs)

2.3 统一生成 Node Alias Table 和 Edge Alias Table

这里通过传入的参数 Graph 获取图的节点与边,节点直接调用 create_alias_table 制表,边则通过 get_alias_edge 加工制表

  1. def preprocess_transition_probs(G):
  2. alias_nodes = {}
  3. for node in G.nodes():
  4. # 当前node的邻居nbr的转移概率
  5. unnormalized_probs = [G[node][nbr].get('weight', 1.0)
  6. for nbr in G.neighbors(node)]
  7. # 当前node的邻居的nbr的转移概率之和
  8. norm_const = sum(unnormalized_probs)
  9. # 当前node的邻居的nbr的归一化转移概率
  10. normalized_probs = [
  11. float(u_prob) / norm_const for u_prob in unnormalized_probs]
  12. # 获取 Accept Alias: 前者为当前方式事件I的概率 后者为另一个事件的编号
  13. alias_nodes[node] = create_alias_table(normalized_probs)
  14. alias_edges = {}
  15. for edge in G.edges():
  16. alias_edges[edge] = get_alias_edge(G, edge[0], edge[1], p=0.25, q=4)
  17. return alias_nodes, alias_edges
  18. (alias_nodes, alias_edges) = preprocess_transition_probs(G)

3.概率游走获取序列

通过前面的准备工作已经获得了点与边的转移概率,下面开始概率游走:

3-1 alias_sample 负责从 alias_table 中 O(1) 的采样

  1. def alias_sample(accept, alias):
  2. N = len(accept)
  3. i = int(np.random.random() * N)
  4. r = np.random.random()
  5. if r < accept[i]:
  6. return i
  7. else:
  8. return alias[i]

3-2 node2vec,铺垫了这么多,Node2walk 主要步骤都在这里,这里需要通过 walk 的长度判断是起始点还是中间点,起始点使用 alias_nodes,中间点使用 alias_edges

  1. def node2vec_walk(G, _alias_nodes, _alias_edges, walk_length, start_node):
  2. G = G
  3. # 起始点
  4. walk = [start_node]
  5. while len(walk) < walk_length:
  6. # 获取当前node
  7. cur = walk[-1]
  8. # 获取当前node的邻居
  9. cur_nbrs = list(G.neighbors(cur))
  10. # 如果有邻居
  11. if len(cur_nbrs) > 0:
  12. # 有邻居且当前为初始点 无顶点情况 使用alias_nodes
  13. if len(walk) == 1:
  14. walk.append(
  15. cur_nbrs[alias_sample(_alias_nodes[cur][0], _alias_nodes[cur][1])])
  16. # 有邻居且不是初始点 有顶点情况 使用alias_edges
  17. else:
  18. prev = walk[-2]
  19. edge = (prev, cur)
  20. next_node = cur_nbrs[alias_sample(_alias_edges[edge][0],
  21. _alias_edges[edge][1])]
  22. walk.append(next_node)
  23. else:
  24. break
  25. return walk

3-3 将上述两者结合,定义 walk_length 和 迭代次数进行概率游走采样。这里定义了迭代次数 num_walks = 10,walk_length = 30,具体数值可根据实际场景调整

  1. # 获取游走序列 Node2vec
  2. num_walks = 10
  3. walks = []
  4. for _ in range(num_walks):
  5. random.shuffle(nodes_list)
  6. for node in nodes_list:
  7. walk = node2vec_walk(G, alias_nodes, alias_edges, 30, node)
  8. walks.append(walk)
  9. print("Node2vec Walk数目:", len(walks))
  10. # 统计游走序列去重词个数
  11. word_set = set()
  12. for walk in walks:
  13. for word in walk:
  14. word_set.add(word)
  15. print("去重大小:", len(word_set))

经过上面一系列操作,终于获取了游走序列:

4.Word2vec 训练获取向量

4-1 word2vec 训练

前面提到了使用现有库 from gensim.models import Word2Vec 直接训练,相关参数之前有过介绍,注意 gensim 版本不同 Word2vec 的参数可能有出入

  1. # sentences: 训练语料
  2. # min_count: 最低词频
  3. # vector_size: 词嵌入维度,老版本为 size
  4. # sg: 算法选择 0-CBOW 1-skip-gram
  5. # hs: 是否使用层次softmax
  6. # workers: 训练的并行度
  7. # window: 窗口大小
  8. # epochs: 训练轮次,老版本也用为 iter,报错的话可以换一下
  9. # alpha: 学习率
  10. # sample: 采样阈值,出现次数过多的词会被采样,可以参考 softmax 采样优化的方法
  11. # cbow_mean: 0-sum 1-mean 用于 CBOW 时对上下文词向量的处理
  12. kwargs = {"sentences": walks, "min_count": 0, "vector_size": 64, "sg": 1, "hs": 0, "workers": 3, "window": 5,
  13. "epochs": 3}
  14. model = Word2Vec(**kwargs)

4-2 获取训练向量

通过模型获取向量,由于模型参数设置 min_count ,所以所有 node 都可以获取向量,实际场景中,词频较小的词可能不会获得向量表征

  1. def get_embeddings(w2v_model, graph):
  2. count = 0
  3. invalid_word = []
  4. _embeddings = {}
  5. for word in graph.nodes():
  6. if word in w2v_model.wv:
  7. _embeddings[word] = w2v_model.wv[word]
  8. else:
  9. invalid_word.append(word)
  10. count += 1
  11. print("无效word", len(invalid_word))
  12. print("有效embedding", len(_embeddings))
  13. return _embeddings
  14. embeddings = get_embeddings(model, G)

 有兴趣也可以通过降维的方法对原始向量进行二维展示:

 如果有原始数据的真实类别,可视化效果更好:

 四.总结

Node2vec 相比 DeepWalk 优化了采样方式与序列生成方式,提高效率的情况下也提升了效果,这里简单介绍了使用的方法和过程,后续有时间继续盘一下 Line,SDNE,Struc2vec,EGES 等 GraphEmbedding 算法。 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/425878
推荐阅读
相关标签
  

闽ICP备14008679号