当前位置:   article > 正文

图神经网络(GNN)性能优化方案汇总,附37个配套算法模型和代码_图神经网络进行优化求解

图神经网络进行优化求解

图神经网络的表达能力对其性能和应用范围有着重要的影响,是GNN研究的核心问题和发展方向。增强表达能力是扩展GNN应用范围、提高性能的关键所在。

目前GNN的表达能力受特征表示和拓扑结构这两个因素的影响,其中GNN在学习和保持图拓扑方面的缺陷是限制表达的主要因素。因此,现有的对GNN表达能力的研究主要都是从图特征增强、图拓扑增强和GNN架构增强这三个方面进行探索。

为了帮助同学们设计更有效的GNN模型,快速找到自己的论文idea,我这次整理了这3大类(包括8个细分小类)GNN性能提升方法,每个方法涉及到的算法模型、论文原文以及代码都放上了,需要的同学看文末

图特征增强

提取特征之间的依赖关系

1.AM-GCN

论文:AM-GCN: Adaptive Multi-channel Graph Convolutional

自适应多通道图卷积网络

模型简介:论文提出自适应多通道图卷积网络AM-GCN,通过注意力机制自适应学习不同源信息的权重,大幅提升图卷积网络整合节点特征和拓扑结构的能力。

2.CL-GNN

论文:A Collective Learning Framework to Boost GNN Expressiveness

提升GNN表达能力的集体学习框架

模型简介:本文提出了集体学习框架CL-GNN,通过Monte Carlo采样增强了现有图神经网络的表达能力,从而提高了节点分类的准确率。

增强使用

1.ACR-GNN

论文:The Expressive Power of Graph Neural Networks as a Query Language

图神经网络作为查询语言的表达能力

模型简介:论文发现基础的AC-GNNs仅能表达FOC2的保护片段,而添加读出层的ACR-GNNs则可以表达完整的FOC2。实验验证了理论发现,ACR-GNNs可以学习FOC2中的查询,而AC-GNNs则难以拟合。

图拓扑增强

添加额外的拓扑信息

1.Twin-GNN

论文:Twin Weisfeiler-Lehman: High Expressive GNNs for Graph Classification

用于图分类的高表达能力图神经网络

模型简介:论文提出Twin Weisfeiler-Lehman测试和基于其的Twin-GNN,通过同时传递节点标签和标识提升了GNN的表达能力,在图分类任务上优于基于消息传递的GNN。

2.ID-GNN

论文:Identity-aware Graph Neural Networks

身份识别图神经网络

模型简介:本文提出身份识别图神经网络ID-GNN,通过在消息传递中感知节点身份,提高了相对1-WL测试的表达能力,可以解决现有GNN的局限。

3.CLIP

论文:COLORING GRAPH NEURAL NETWORKS FOR NODE DISAMBIGUATION

着色图神经网络用于节点消歧

模型简介:通过为节点着色来消除属性歧义,文中提出的着色图神经网络CLIP在理论和实验上都展示了比传统消息传播图神经网络更强的表达能力。

4.RP-GNN

论文:Relational Pooling for Graph Representations

关系池化用于图表示

模型简介:本文提出的关系池化为图神经网络提供了超越流行方法的最大表达能力,使模型获得比最初同构测试更强的区分图结构的能力。

5.RNI-GNN

论文:The Surprising Power of Graph Neural Networks with Random Node Initialization

随机节点初始化图神经网络的惊人能力

模型简介:本文研究了随机节点初始化对提高图神经网络表达能力的作用,理论上证明了即使部分随机初始化,这种图神经网络也是通用的,第一个不依赖计算密集高阶属性的通用图神经网络结果。

编码微拓扑

1.DE-GNN

论文:Distance Encoding: Design Provably More Powerful Neural Networks for Graph Representation Learning

为图表示学习设计证明更强大的神经网络

模型简介:本文提出距离编码机制,可以充分捕获节点集与整图节点之间的距离信息,理论上证明其表达能力优于1-WL测试,为图神经网络表示任意节点集提供了更强的区分能力。

2.PGNN

论文:Position-aware Graph Neural Networks

位置感知图神经网络

模型简介:本文提出位置感知图神经网络,通过采样节点作为锚点并聚合目标节点与锚点集的距离表示,来学习反映节点在图中的相对位置的嵌入,增强模型对图结构的建模能力,在链接预测等任务上优于现有图神经网络。

3.PEG

论文:EQUIVARIANT AND STABLE POSITIONAL ENCODING FOR MORE POWERFUL GRAPH NEURAL NETWORKS

等变与稳定的位置编码,为更强大的图神经网络

模型简介:本文提出了一类称为PEG的图神经网络层,通过分离更新节点原始特征和基于拉普拉斯特征映射等方法获得的节点位置特征,既保证了表示对图同构变换等变,又使模型对小扰动稳定,增强了模型的泛化能力。

4.SMP

论文:Building powerful and equivariant graph neural networks with structural message-passing

利用结构化消息传递构建强大的且等变的图神经网络

模型简介:本文提出了一种基于结构化消息传递的强大且等变的图神经网络框架,该框架可以更准确预测图的拓扑属性,并在ZINC数据集上的分子图回归任务上取得最优效果。

5.GD-WL

论文:RETHINKING THE EXPRESSIVE POWER OF GNNS VIA GRAPH BICONNECTIVITY

通过图双连通性重新思考图神经网络的表达能力

模型简介:本文从图的双连通性出发,提出了一类新的表达能力指标,发现当前图神经网络大多无法区分双连通性,仅ESAN框架例外。然后提出GD-WL方法,理论证明其可以区分所有双连通指标,并给出了Transformer实现。

编码全局拓扑

1.Eigen-GNN

论文:Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs

Eigen-GNN: 一种图结构保留的GNN插件

模型简介:本文提出了Eigen-GNN,一种可插入现有GNN的模块,通过利用图的拉普拉斯特征值和特征向量来编码结构信息,增强GNN保留图结构的能力。

编码局部拓扑

1.GSN

论文:Improving Graph Neural Network Expressivity via Subgraph Isomorphism Counting

通过子图同构计数提高图神经网络的表达能力

模型简介:本文提出了基于子图同构计数的图神经网络表示方法GSN,增强了GNN对图结构的建模能力。GSN保留了GNN的局部性和线性复杂度,但可以区分困难的图同构实例。在多个实验中,GSN取得了优于当前SOTA的效果。

2.GraphSNN

论文:A NEW PERSPECTIVE ON "HOW GRAPH NEURAL NET-WORKS GO BEYOND WEISFEILER-LEHMAN?

从新视角看“图神经网络如何突破Weisfeiler-Lehman限制”

模型简介:本文提出了一种新视角来设计表达能力强的图神经网络,通过开发基于局部同构的层次结构,理论上证明了基于消息传递的图神经网络如何设计才能超过Weisfeiler Lehman测试,并根据这一理论提出了一个新的图神经网络模型GraphSNN。

3.GNN-AK

论文:FROM STARS TO SUBGRAPHS: UPLIFTING ANY GNN WITH LOCAL STRUCTURE AWARENESS

通过局部结构意识提升任意GNN

模型简介:本文提出框架GNN-AK,将消息传递图神经网络中的星形聚合扩展为子图编码,使其考虑局部结构信息,理论上证明提升了表达能力,实验大幅提高了性能,提供了在表达能力与可拓展性间权衡的通用升级方法。

4.NGNN

论文:Nested Graph Neural Networks

嵌套图神经网络

模型简介:嵌套图神经网络通过学习节点局部子图表示而非子树表示,理论上证明了比1-WL测试更强的表达能力,仅增加常数复杂度开销,实验表明可泛化提升各基础图神经网络的性能。

5.MPSN

论文:Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks

Weisfeiler-Lehman 方法引入拓扑结构

模型简介:本文将拓扑结构与图神经网络结合,在简单复形上定义消息传递以捕获全局结构,理论上证明其表达能力强于标准图神经网络,实验也表明其优于当前最先进的模型。

6.ESAN

论文:EQUIVARIANT SUBGRAPH AGGREGATION NETWORKS

等变子图聚合网络

模型简介: 本文提出了一种新的图神经网络框架ESAN,通过提取图的可区分子图集合并用等变网络进行编码,来提升表现力。

7.LRP-GNN

论文:Can Graph Neural Networks Count Substructures?

图神经网络能统计子结构吗?

模型简介:本文通过子图计数的视角深入研究图神经网络的表达能力,对流行模型给出理论正面和负面结果,并提出了基于子结构计数的新模型。

8.k-GNN

论文:Weisfeiler and Leman Go Neural: Higher-order Graph Neural Networks

Weisfeiler-Leman 方法的神经网络延伸:高阶图神经网络

模型简介:本文从理论角度研究图神经网络,发现其表达能力等价于1-WL测试,因此存在相同的局限性。为此,提出了k-GNN模型,可以编码多尺度的高阶图结构信息。

9.K-hop GNN

论文:k-hop graph neural networks

多跳图神经网络

模型简介:标准GNN表达能力等价于WL测试,不能识别基本图属性如连通性和无三角形。本文提出的k-hop GNN通过聚合k跳范围内邻居信息来更新节点表示,可以识别这些基本图属性。

10.KP-GNN

论文:How Powerful are K-hop Message Passing Graph Neural Networks

K跳消息传递图神经网络的表达能力

模型简介:本文首次理论分析了 K-hop 消息传递的表达能力,指出它优于 1-WL 测试但仍有局限,并提出结合周边子图信息的 KP-GNN 框架来进一步增强表达能力。

GNN架构增强

提高聚集功能

1.GINN

论文:HOW POWERFUL ARE GRAPH NEURAL NETWORKS?

图神经网络的表达能力有多强?

模型简介:本文提供GNN表达能力分析的理论框架,指出流行GNN无法区分某些简单图,并提出一个与WL测试一样强大且最具表达能力的GNN架构,实证其SOTA的性能。

2.modular-GCN

论文:Understanding the Representation Power of Graph Neural Networks in Learning Graph Topology

理解图神经网络在学习图拓扑结构中的表达能力

模型简介:从图矩的角度分析发现GCN学习图拓扑的能力有限,理论分析后提出模块化设计和残差连接可以改进GCN,使其可以区分小图,深度比宽度更重要,组合不同传播规则的模块对提升表达能力关键。

3.diagonal-GNN

论文:Graph Neural Networks Are More Powerful Than we Think

图神经网络的表达能力比我们想象的更强大

模型简介:本文从线性代数的角度分析了GNN的表达能力,证明了GNN可以区分特征值不同的图,设计了优于WL测试的GNN架构,实验验证了理论结论和架构的有效性。

4.GNN-LF/HF

论文:Interpreting and Unifying Graph Neural Networks with An Optimization Framework

使用优化框架解释并统一图神经网络

模型简介:本文建立不同GNN传播机制与统一优化问题的联系,在该框架下发现现有GNN使用朴素图核,并提出考虑可调节图核的目标函数,证明提出模型收敛性及表达能力,实验表明还可以减轻过度平滑。

5.Geom-GCN

论文:GEOM-GCN: GEOMETRIC GRAPH CONVOLUTIONAL NETWORKS

几何图卷积网络

模型简介:本文从网络几何角度提出新的图卷积网络聚合方案,通过结构化邻域和双级聚合克服了MPNN聚合器的两个限制,在多个图数据集上取得最先进性能。

6.PG-GNN

论文:Going Deeper into Permutation-Sensitive Graph Neural Networks

深入研究排列敏感的图神经网络

模型简介:本文通过排列群提出排列敏感的图神经网络聚合机制,证明严格优于2-WL测试且不弱于3-WL测试,在多个数据集上验证了优越性。

采用等变结构

1.k-IGN

论文:INVARIANT AND EQUIVARIANT GRAPH NETWORKS

不变和笛卡尔图网络

模型简介: 本文给出了(超)图数据所有排列不变和笛卡尔线性层的特征化,展示了它们的维度分别是贝尔数,并证明了应用于不同大小图上的有效性。

2.PPGN

论文:Provably Powerful Graph Networks

可证明强大的图网络

模型简介:本文证明了简单交替使用多层感知机和矩阵乘法的图网络模型达到3-WL表达能力,在多个任务上验证了其最优性。

3.k-FGNN

论文:The expressive power of kth-order invariant graph networks

k阶不变图网络的表达能力

模型简介:本文证明了k阶不变图网络的表达能力被k维Weisfeiler-Leman图同构测试所限制,即两者在区分图上的能力相等。

4.Ring-GNN

论文:On the Equivalence between Graph Isomorphism Testing and Function Approximation with GNNs

关于图同构测试和GNN函数逼近等价性的研究

模型简介:本文证明了图神经网络逼近排列不变函数和作为图同构测试的能力等价,并基于σ代数提出了统一框架来比较不同GNN的表达能力。

5.SUN

论文:Understanding and Extending Subgraph GNNs by Rethinking Their Symmetries

通过重新思考对称性来理解和扩展子图图神经网络

模型简介:本文通过重新思考子图神经网络的对称性来理解其表达能力上界并提出更一般的消息传递层,设计了一个新的子图神经网络模型SUN来统一并改进之前的结构。

6.GNNML

论文:Breaking the Limits of Message Passing Graph Neural Networks

突破消息传递图神经网络的限制

模型简介:本文通过设计频谱域滤波器和非局部更新,提出了一个复杂度线性但表达能力超过1-WL的消息传递图神经网络框架。

7.k-MPNN

论文:EXPRESSIVENESS AND APPROXIMATION PROPERTIES OF GRAPH NEURAL NETWORKS

图神经网络的表达能力和逼近性质

模型简介: 本文提出使用过程张量语言描述GNN计算,通过分析张量表达式中的索引和嵌套求和深度,可以自然地给出GNN表达能力关于WL测试的上下界。

关注下方《学姐带你玩AI》

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/459535
推荐阅读