赞
踩
分为 Hyperbolic Models,Spherical models 和 Gaussian models三类
**摘要:**图神经网络(GNN)在处理结构化图方面表现出优越的性能,近期引起了相当多的研究关注。大多数现有的GNN都是在欧几里得空间中设计的;然而,现实世界中的空间结构化数据可以是非欧几里得表面(例如,双曲空间)。例如,生物学家可能会检查蛋白质表面的几何形状,以确定其与其他生物分子的相互作用,用于药物发现。尽管有越来越多的研究将GNN推广到非欧几里得表面,但这些领域的研究工作仍然很有限。在本文中,我们利用图注意力网络来学习双曲空间中图的稳健节点表示。由于陀螺矢量空间框架为双曲几何提供了一种优雅的代数形式,我们利用这个框架来学习双曲空间中的图表示。具体而言,我们首先使用框架中定义的操作来转换图中的特征;我们利用双曲空间乘积中的接近性来模拟非欧几里得设置中的多头注意机制;随后,我们进一步设计了一种并行策略,使用对数和指数映射来提高我们提出的模型的效率。全面的实验结果表明,与最先进的方法相比,所提出的模型具有显著的有效性。
Y. Zhang, X. Wang, C. Shi, X. Jiang and Y. Ye, “Hyperbolic Graph Attention Network,” in IEEE Transactions on Big Data, vol. 8, no. 6, pp. 1690-1701, 1 Dec. 2022, doi: 10.1109/TBDATA.2021.3081431.
**摘要:**表征学习已经成为从符号数据(如文本和图形)中学习的一种宝贵方法。然而,最先进的嵌入方法通常没有考虑到许多复杂符号数据集特有的潜在层次结构。在这项工作中,我们引入了一种新的方法,通过将符号数据嵌入到双曲空间中(更准确地说是嵌入到n维的庞加莱球),来学习符号数据的层次化表示。由于底层的双曲几何,这使我们能够通过同时捕捉层次结构和相似性来学习符号数据的简洁表示。我们提出了一种基于黎曼优化的高效算法来学习嵌入,并通过实验证明,在具有潜在层次结构的数据中,庞加莱嵌入在表示容量和泛化能力方面都能显著优于欧几里得嵌入。
Maximilian Nickel and Douwe Kiela. 2017. Poincaré embeddings for learning hierarchical representations. In Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 6341–6350.
**摘要:**我们关注从大规模非结构化相似性分数中发现层次关系。为此,我们研究了双曲空间的不同模型,并发现在洛伦兹模型中学习嵌入比在庞加莱球模型中更为高效。我们展示了所提出的方法使我们能够学习大型分类体系的高质量嵌入,相对于庞加莱嵌入,特别是在低维度下,取得了改进。最后,我们将我们的模型应用于发现两个现实世界数据集中的层次结构:我们展示了在双曲空间中嵌入可以揭示公司组织结构的重要方面,并揭示了语言家族之间的历史关系。
Nickel, M.; Kiela, D. Learning Continuous Hierarchies in the Lorentz Model of Hyperbolic Geometry. In Proceedings of the 35th International Conference on Machine Learning (ICML 2018), Stockholm, Sweden, 10–15 July 2018; mlr.press: Stockholm, Sweden, 2018; Volume 80, pp. 3776–3785.
**摘要:**图卷积神经网络(GCNs)将图中的节点嵌入到欧几里得空间中,已经显示在嵌入具有无标度或层次结构的现实世界图时会产生较大的失真。双曲几何提供了一种激动人心的替代方案,因为它能够实现较小失真的嵌入。然而,将GCNs扩展到双曲几何面临几个独特的挑战,因为目前尚不清楚如何在双曲空间中定义神经网络操作,例如特征转换和聚合。此外,由于输入特征通常是欧几里得的,如何将这些特征转换为具有正确曲率的双曲嵌入也不明确。在这里,我们提出了双曲图卷积神经网络(HGCN),这是第一个归纳式的双曲GCN,充分利用了GCNs和双曲几何的表达能力,以学习层次化和无标度图的归纳节点表示。我们在双曲空间的双曲模型中推导了GCNs操作,并将欧几里得输入特征映射到每一层具有不同可训练曲率的双曲空间中。实验证明,HGCN学习到的嵌入保留了层次结构,并在与欧几里得模拟相比表现出更好的性能,即使是在非常低维度的嵌入情况下:与最先进的GCNs相比,HGCN在链接预测的ROC AUC上实现了高达63.1%的误差降低,节点分类的F1分数降低了最高达47.5%,还在Pubmed数据集上改进了最新技术水平。
Chami, I.; Ying, Z.; Ré, C.; Leskovec, J. Hyperbolic Graph Convolutional Neural Networks. In Proceedings of the 32nd Annual Conference on Neural Information Processing Systems (NeurIPS 2019), Vancouver, BC, Canada, 8–14 December 2019; NeurIPS: Vancouver, BC, Canada, 2019; pp. 4869–4880.
摘要:图卷积神经网络(GCNs)将图中的节点嵌入到欧几里得空间中,已经显示在嵌入具有无标度或层次结构的现实世界图时会产生较大的失真。双曲几何提供了一种激动人心的替代方案,因为它能够实现较小失真的嵌入。然而,将GCNs扩展到双曲几何面临几个独特的挑战,因为目前尚不清楚如何在双曲空间中定义神经网络操作,例如特征转换和聚合。此外,由于输入特征通常是欧几里得的,如何将这些特征转换为具有正确曲率的双曲嵌入也不明确。在这里,我们提出了双曲图卷积神经网络(HGCN),这是第一个归纳式的双曲GCN,充分利用了GCNs和双曲几何的表达能力,以学习层次化和无标度图的归纳节点表示。我们在双曲空间的双曲模型中推导了GCNs操作,并将欧几里得输入特征映射到每一层具有不同可训练曲率的双曲空间中。实验证明,HGCN学习到的嵌入保留了层次结构,并在与欧几里得模拟相比表现出更好的性能,即使是在非常低维度的嵌入情况下:与最先进的GCNs相比,HGCN在链接预测的ROC AUC上实现了高达63.1%的误差降低,节点分类的F1分数降低了最高达47.5%,还在Pubmed数据集上改进了最新技术水平。
Zhang, Y.; Wang, X.; Shi, C.; Liu, N.; Song, G. Lorentzian Graph Convolutional Networks. In Proceedings of the The Web Conference (WWW 2021), Ljubljana, Slovenia, 19–23 April 2021; ACM/IW3C2: Ljubljana, Slovenia, 2021; pp. 1249–1261.
**摘要:**知识图谱(KG)嵌入在学习实体和关系表示以进行链接预测任务方面展现了强大的能力。先前的工作通常将KG嵌入到单一几何空间,如欧几里得空间(零曲率)、双曲空间(负曲率)或超球面空间(正曲率),以保持其特定的几何结构(例如链状、层次和环状结构)。然而,KG的拓扑结构似乎很复杂,因为它可能同时包含多种类型的几何结构。因此,无论是欧几里得空间、双曲空间还是超球面空间,将KG嵌入到单一空间中都无法准确捕捉KG的复杂结构。为了克服这一挑战,我们提出了几何交互知识图谱嵌入(GIE),它在欧几里得、双曲和超球面空间之间学习空间结构的交互。从理论上讲,我们提出的GIE能够捕捉更丰富的关系信息,模拟关键推理模式,并实现实体之间的表达性语义匹配。在三个成熟的知识图谱完成基准上的实验证明,我们的GIE在参数更少的情况下实现了最先进的性能。
Cao, Z.; Xu, Q.; Yang, Z.; Cao, X.; Huang, Q. Geometry Interaction Knowledge Graph Embeddings. In Proceedings of the 36th Conference on Artificial Intelligence (AAAI 2022), Virtual Event, 22 February–1 March 2022; AAAI Press: Virtual Event, 2022; pp. 5521–5529.
**摘要:**我们开发了一个几何框架来研究复杂网络的结构和功能。我们假设这些网络基于双曲几何,并且我们展示了在这个假设下,复杂网络中的异质度分布和强聚类自然地作为底层双曲几何的负曲率和度量性质的简单反映而出现。反之,我们表明如果一个网络具有一些度量结构,并且网络度分布是异质的,那么网络底层存在有效的双曲几何。然后,我们建立了我们的几何框架与复杂网络的统计力学之间的映射。这个映射将网络中的边解释为非相互作用的费米子,它们的能量是节点之间的双曲距离,而与边耦合的辅助场是这些能量或距离的线性函数。几何网络合集包含标准配置模型和经典随机图,它们是两种极限情况,具有退化的几何结构。最后,我们表明,由我们的几何框架可能实现的无需全局拓扑知识的有针对性的传输过程在网络中效率最大,根据所有效率度量,特别是在具有最强异质性和聚类的网络中,而且这种效率对于即使是对网络结构的灾难性干扰和损害也异常稳健。
Krioukov, D.V.; Papadopoulos, F.; Kitsak, M.; Vahdat, A.; Boguñá, M. Hyperbolic Geometry of Complex Networks. arXiv 2010,arXiv:1006.5169.
**摘要:**为球形神经网络设计卷积需要在效率和旋转等变性之间进行精细的权衡。DeepSphere是一种基于球面离散表示的图方法,能够在这两个愿望之间实现可控的平衡。这个贡献是双重的。首先,我们从理论和经验上研究了等变性如何受底层图的影响,特别是关于像素数和邻居数量。其次,我们在相关问题上评估了DeepSphere的性能。实验证明了其在效率和灵活性方面表现出的最新技术水平,并展示了这种表述的优越性。或许令人惊讶的是,与先前的工作相比,结果表明各向异性滤波器可能是一个不必要的代价。
Defferrard, M.; Milani, M.; Gusset, F.; Perraudin, N. DeepSphere: A graph-based spherical CNN. In Proceedings of the 8th International Conference on Learning Representations (ICLR 2020), Addis Ababa, Ethiopia, 26–30 April 2020; OpenReview.net: Addis Ababa, Ethiopia, 2020.
**摘要:**网络嵌入旨在将网络嵌入到低维向量空间中,同时保留网络的固有结构属性,近年来引起了相当大的关注。现有的大多数嵌入方法将节点嵌入为低维连续空间中的点向量。这样,边的形成是确定性的,仅由节点的位置决定。然而,现实世界网络的形成和演化充满了不确定性,使得这些方法并非最优。为解决这个问题,本文提出了一种新颖的Wasserstein空间中的深度变分网络嵌入(DVNE)。所提出的方法在Wasserstein空间中学习每个节点的高斯分布作为潜在表示,可以同时保留网络结构并建模节点的不确定性。具体而言,我们使用2-Wasserstein距离作为分布之间的相似性度量,可以很好地在网络中保留传递性,并具有线性计算成本。此外,我们的方法通过深度变分模型暗示了均值和方差的数学关系,通过均值向量很好地捕捉了节点的位置,并通过方差捕捉了节点的不确定性。此外,我们的方法通过保留网络中的一阶和二阶接近性,捕捉了局部和全局网络结构。我们的实验结果表明,与最先进的方法相比,我们的方法可以有效地建模网络中节点的不确定性,并在诸如链接预测和多标签分类等实际应用中取得了显著的增益。
Zhu, D.; Cui, P.; Wang, D.; Zhu, W. Deep Variational Network Embedding in Wasserstein Space. In Proceedings of the 24th International Conference on Knowledge Discovery & Data Mining (KDD 2018), London, UK, 19–23 August 2018; Guo, Y., Farooq, F., Eds.; ACM: London, UK, 2018; pp. 2827–2836.
**摘要:**我们考虑在异构图中进行节点分类的问题,其中节点和关系都可能是不同类型的,并且每种节点类型都关联着不同的类别集。尽管图节点分类主要是针对同质图进行的,但异构分类是一个近期的问题,其动机来自于社交网络等领域的应用,其中图本质上是异构的。我们提出了一种基于学习图嵌入的这个问题的推断方法,并使用高斯嵌入来建模与节点表示相关的不确定性。在三个异构数据集上提供了与代表性基线方法的比较。
Santos, L.D.; Piwowarski, B.; Gallinari, P. Multilabel Classification on Heterogeneous Graphs with Gaussian Embeddings. In Proceedings of the Machine Learning and Knowledge Discovery in Databases—European Conference (ECML PKDD 2016), Riva del Garda, Italy, 19–23 September 2016; Springer: Riva del Garda, Italy, 2016; Volume 9852, pp. 606–622.
Bojchevski, A.; Günnemann, S. Deep Gaussian Embedding of Graphs: Unsupervised Inductive Learning via Ranking. In Proceedings of the 6th International Conference on Learning Representations (ICLR 2018), Vancouver, BC, Canada, 30 April–3 May 2018; OpenReview.net: Vancouver, BC, Canada, 2018.
He, S.; Liu, K.; Ji, G.; Zhao, J. Learning to Represent Knowledge Graphs with Gaussian Embedding. In Proceedings of the 24th International Conference on Information and Knowledge Management (CIKM 2015), Melbourne, VIC, Australia, 19–23 October 2015; ACM: Melbourne, VIC, Australia, 2015; pp. 623–632.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。