赞
踩
作者丨纪厚业
学校丨北京邮电大学博士生
研究方向丨异质图神经网络及其应用
本文由斯坦福 Jure 组发表在 NeurIPS 2019 上,一作 Rex Ying 也是著名的 GraphSAGE 的作者。代码和数据:
https://github.com/RexYing/gnn-model-explainer
图神经网络(Graph Neural Network), 作为深度学习领域最热门的方向之一,相关论文在各大顶会层出不穷。但是,图神经网络的解释性问题没有得到较多的关注。图神经网络的解释性是非常有必要的:1)提升了 GNN 的可信程度;2)在一些注重公平性,隐私性和安全性的决策应用,可以提升决策的透明度;3)可以更好的理解图本身的特性。
虽然一些基于 Attention 机制的模型(如 Graph Attention Network)可以一定程度上对 GNN 进行解释。但是,作者认为它们有两个问题:1)GAT 可以学习节点之间关系的权重,但是其只能实现对结构的进行解释而无法通过特征的角度进行解释;2)节点的 1-hop 邻居和 2-hop 邻居可能有重叠,GAT 会学习到同一对节点之间的不同权重。这时候到底该用那个无法抉择。
因此,本文提出了 GNNExplainer,可以从网络结构和节点属性的角度来对任意图神经网络和任意图挖掘任务生成解释。GNNExplainer 旨在探寻与预测结果最相关的子图结构来实现对结果的解释,其中 Graph Mask 和 Feature Mask 可以分别对实现对结构和特征的筛选。
上图给了一个如何对 GNN 预测的节点分类(Basketball 和 Sailing)的结果进行解释。针对节点及其 label 篮球,其邻居中很多人都喜欢球类也有一些喜欢非球类, GNNExplainer 可以自动的找到邻居中都喜欢球类的这些人。同样的,针对节点,GNNExplainer 也可以发现其好友中同样喜欢水上/沙滩类运动的好友。
作者首先归纳了 GNN 的三个步骤:1)MSG,构建节点之间需要传递的消息;2)AGG,收集节点相关的消息;3)UPDATE,更新节点表示。下图解释了 GNNExplainer 要做的事情:自动发现重要的消息和特征。
Explanation via
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。