赞
踩
Title: An Experimental Study of State-of-the-Art Entity Alignment Approaches
日期: 2022
发表单位: IEEE
github: https://github.com/DexterZeng/EAE
原文地址: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9174835
概括: 近年来,EA 方法迅速增加,但它们的相对性能仍不清楚,部分原因是经验评价不完整,以及比较是在不同设置(即数据集、用作输入的信息等)下进行的。在本文中,我们通过对最先进的 EA 方法进行全面评价和详细分析来填补空白。
实体对齐 (EA) 寻找位于不同知识图谱(KG)中的等价实体,这是提高KG质量的重要步骤,因此对下游应用程序(例如,问答和推荐)具有重要意义。
典型的KG以三元组的形式存储世界知识(即⟨entity, relation, entity⟩),其中实体(entity)指的是真实世界中的独特对象,而关系描述了将这些对象联系起来的关系。
一般来说,当前的EA方法主要通过假设不同KG中的等价实体具有相似的相邻结构,并采用表示学习方法将实体作为数据点嵌入到低维特征空间中来解决该问题。本文对最先进的EA方法进行经验评价,具有以下特征:
本研究是系统和全面评价最先进的 EA 方法的首批尝试之一。这通过以下方式实现:
嵌入学习模块分别为 K G E N KG_{EN} KGEN和 K G E S KG_{ES} KGES中的实体生成嵌入。然后对齐模块将实体嵌入投影到相同的向量空间中,这样 K G E N KG_{EN} KGEN和 K G E S KG_{ES} KGES中的实体嵌入可以直接比较。最后,利用统一的嵌入,预测模块为 K G E N KG_{EN} KGEN中的每个源实体预测 K G E S KG_{ES} KGES中的等价目标实体。额外信息模块利用多种技术来提高EA性能。自助法旨在将从上一轮检测到的可信EA对,加入到训练集中,以用于下一轮学习。另一种方法是使用额外的文本信息来补充实体嵌入以进行对齐。
实体对齐的不同角度:实体消解(ER)、实体匹配、记录链接、去重、实例/本体匹配、链接发现、实体链接/实体消歧
**实体链接:**实体链接(EL)的任务也称为实体消歧。它关注识别自然语言文本中的实体提及(mention),并将它们映射到给定参考目录(大多数情况下为 KG)中的实体。现有方法利用大量信息,包括实体提及周围的单词、某些目标实体的先验概率、已经消歧的实体提及、维基百科等背景知识,以消除链接目标的歧义。
**实体消解:**实体消解(ER)的任务,也被称为实体匹配、去重或记录链接,假定输入是关系数据,每个数据对象通常都有大量的文本信息,用多个属性来描述。许多已知的相似度或距离函数(例如,名称的Jaro-Winkler 距离和日期之间的数字距离)用于量化两个对象之间的相似度。基于规则或基于机器学习的方法能够解决将两个对象分类为匹配或不匹配的问题。更具体地说,对于主流的ER解决方案,为了匹配实体记录,首先手动或自动对齐属性,然后计算相应属性值之间的相似度,最后汇总对齐属性之间的相似度得分以得出记录之间的相似度。
由于EA追求与ER相同的目标,因此可以将其视为ER的一个特殊但非平凡的例子。所以,一般的ER方法可以适用于EA问题。
**KG实体消解:**一些ER方法旨在处理KG并专门处理二元关系,即图数据。这些方法也经常被称为实例/本体匹配方法。
图数据有其自身的挑战:
在过去二十年里,已经开发了许多专门用于KG的方法。这些可以分为几个维度:
**范围。**一些方法对齐两个KG的实体,其他方法对齐关系名(也称为模式),还有其他方法对齐两个KG的类别分类表。
**背景知识。**一些方法使用本体(T-box)作为背景信息。对于参与本体对齐评价倡议 (Ontology Alignment Evaluation Initiative, OAEI)的方法尤其如此。
训练。
有些方法是无监督的,直接操作输入数据,不需要训练数据或训练阶段(例如 PARIS和 SiGMa)。另一方面,其他方法基于预定义的映射来学习实体之间的映射。
EA框架四个主要组件:
**嵌入学习模块:**该组件旨在学习实体的嵌入,大致可分为两类:基于KG表示的模型,(TransE)和基于图神经网络(GNN)的模型(GCN)。
**对齐模块:**该组件旨将(上一个模块中学到的)不同KG中的实体嵌入映射到一个统一的空间中。大多数方法使用基于边界(margin)的损失来强制来自不同KG的种子实体嵌入接近。另一个经常使用的方法是语料库融合,它在语料库级别对齐KG,并将不同KG中的实体直接嵌入到同一向量空间中。
**预测模块:**给定统一的嵌入空间,对于测试集中的每个源实体,预测最有可能的目标实体。常见的策略包括使用余弦相似度、曼哈顿距离或实体嵌入间的欧几里得距离来代表实体之间的距离(相似度),然后选择距离最小(相似度最高)的目标实体作为对应实体。
**额外信息模块。**在基本模块之上,一些解决方案建议利用额外信息来增强 EA 性能。一种常见的做法是自助法(bootstrapping,或自学习)策略,它利用预测模块生成的可信对齐结果作为后续对齐迭代的训练数据(图 2 中的黑色虚线)。此外,其他人建议利用多类型文字信息,例如属性、实体描述和实体名称,来补充KG结构(蓝色虚线)。
**TransE。**TransE将关系解释为对实体的低维表示间的平移(translation)操作。更具体地说,给定一个关系三元组(h,r,t),TransE建议尾实体的嵌入应该接近头实体 h 的嵌入加上关系 r 的嵌入,即h ⃗ + r ⃗ ≈ t ⃗。因此,实体的结构信息得以保留,并且共享相似邻居的实体将在嵌入空间中具有近似的表示。
**GCN。**图卷积网络(GCN)是一种直接对图结构数据进行操作的卷积网络。它通过对节点邻域信息进行编码来生成节点级嵌入。GCN的输入包括KG中每个节点的特征向量,以及矩阵形式的图结构的代表性描述,即邻接矩阵。输出是一个新的特征矩阵。GCN模型通常包含多个堆叠的GCN层,因此它可以捕获距离实体多跳的部分KG结构。
对于基于GCN的模型,注意到GCN忽略了KG中的关系,RDGCN采用双原始图卷积神经网络(dual-primal graph convolutional neural network, DPGCNN)作为补救。另一方面,MuGNN利用基于注意力的 GNN 模型为不同的相邻节点分配不同的权重。KECG结合了图注意力网络 (GAT)和TransE来捕获图内结构和图间对齐信息。
其他设计了新的嵌入模型方法:RSNs使用带有残差学习的循环神经网络(RNN)来学习实体之间的长距离关系路径。TransEdge中,设计了一种新的能量函数来度量实体嵌入间的边平移误差,用于学习KG嵌入,其中边嵌入通过上下文压缩和投影来建模。
最常见的策略是在嵌入学习模块之上添加基于边界(margin)的损失函数。基于边界的损失函数要求正对实体间的距离应该很小,负对实体间的距离应该很大,并且正对间距离和负对间距离之间应该存在一个边界。这里正对表示种子实体对,而负对是通过破坏正对来构造的。这样,两个KG各自的嵌入空间可以被放入一个向量空间。
另一种常用的方法是语料库融合,它利用种子实体对来连接两个KG的训练语料库。给定两个KG的三元组,一些方法(例如BootEA和NAEA)交换种子实体对中的实体并生成新的三元组以将嵌入校准到统一空间中。其他方法将种子实体对中的实体视为同一实体,并构建连接两个KG的覆盖(overlay)图,然后将其用于学习实体嵌入。
最常见的方法是根据实体嵌入之间的特定距离度量返回每个源实体的目标实体的排名列表,其中排名最高的实体被视为匹配项。常用的距离度量包括欧几里得距离、曼哈顿距离和余弦相似度。
此外,最近的一种方法CEA指出,不同的EA决策之间通常存在额外的相互依赖关系,即如果目标实体与具有更高置信度的另一个源实体对齐,则目标实体与当前源实体匹配的可能性较小。为了对这样的集体信号进行建模,它将这个过程表述为建立在距离度量基础上的稳定匹配问题,从而减少了不匹配并提高了准确性。
一种常见的方法是自助法(通常也称为迭代训练或自学习策略),它迭代地将可能的EA对标记为下一轮的训练集,从而逐步改进对齐结果。已经设计了几种方法,主要区别在于选择置信EA对。ITransE采用基于阈值的策略,而BootEA、NAEA和TransEdge将选择表示为一一映射约束下的最大似然匹配过程。
一些方法使用多类型文字信息来提供更全面的对齐视图。与实体相关的属性经常被使用。有些仅使用属性名称的统计特征(例如,JAPE、GCN-Align和HMAN),但其他方法通过编码属性值的字符(例如,AttrE和MultiKE)来生成属性嵌入。
根据主要组成部分分为三组:
第一组,仅利用 KG 结构进行对齐。
第二组,利用迭代训练策略来改善对齐结果。
第三组,利用除了 KG 结构之外的信息。
采用三个常用且具有代表性的数据集:DBP15K(三个多语言KG对)、DWY100K(两个单语KG对)、SRPRS(两个跨语言KG、两个单语KG对)
度分布:数据集中实体的度数分布。
实体的度数:实体所涉及的三元组的数量。度数越高意味着相邻结构越丰富。
评价指标。使用 Hits@k(k=1, 10)和排名倒数均值(mean reciprocal rank, MRR)作为评价指标。Hits@k反映了前k个最接近的目标实体中包含正确对齐的实体的百分比。MRR 表示基本事实排名的倒数的平均值。
还与几种基于名称的启发式方法进行了比较(验证典型的 ER 解决方案仍然可以处理 EA 的任务),(1) Lev ,它使用Levenshtein距离对齐实体,这是一种用于测量两个序列之间差异的字符串度量, (2) Embed,它根据两个实体的名称嵌入(平均词嵌入)之间的余弦相似度来对齐实体。
第一组在仅使用KG结构的方法中,RSN结果最佳。第二组TransEdge采用以边为中心的嵌入模型来捕获结构信息,从而生成更精确的实体嵌入,结果最佳。第三组CEA效果最佳,因为它有效地利用和融合了可用的特征。基于名称的启发式方法Embed结果更佳。
类别内比较:CEA在所有数据集上实现了最佳 Hits@1 性能。这验证了使用额外信息(即引导策略和文本信息)的有效性。
第一组,SRPRS 的整体性能低于DBP15K ,RSNs结果最佳。第二组TransEdge结果最佳。第三组CEA效果最佳。基于名称的启发式方法Lev和Embed在单语言 EA 数据集上实现了100%的性能指标。
与DBP15K不同,包含实体名称(第三组)的方法在SRPRS上占主导地位。这是因为:(1)KG 结构在这个数据集上效果较差(与DBP15K相比要稀疏得多), (2)实体名称信息在单语言数据集和密切相关语言对的跨语言数据集上起着非常重要的作用,其中等价实体的名称非常相似。
第一组的方法在这个数据集上取得了更不错的结果。第二组的方法进一步提高了结果第三组中的方法,CEA实现了百分百的性能指标。基于名称的启发式Lev和Embed也获得了百分百的结果。
嵌入学习模块,使用GCN和TransE。对于对齐模块,采用基于边界的损失函数(Mgn)和语料库融合策略(Cps)。按照目前的方法,将GCN与Mgn结合起来,将TransE与Cps结合起来,其中参数分别根据GCN-Align和JAPE进行调整。在预测模块中,使用欧几里得距离(Euc)、曼哈顿距离(Manh)和余弦相似度(Cos)。额外信息模块,通过实现中的迭代方法将引导策略的使用表示为B。多类型信息的使用表示为Mul ,采用CEA中实体名称的语义和字符串级特征。
添加引导策略和/或文本信息确实提高了整体性能,距离度量也会对结果产生影响。
EA与ER:
EA 解决方案的性能在不同的数据集上差异很大。EA 方法在稠密数据集上取得相对较好的结果,单语 KG 的结果优于跨语言 KG。
建议:
未来研究:
EA数据集存在的问题:在现实世界的知识图谱(KG)中,实体标识符通常不是人类可读的,而且不同的实体可能共享相同的名称,这使得基于名称匹配的EA方法不准确。此外,现有的EA数据集通常假设源KG中的每个实体在目标KG中都有一个对应的实体,这在现实中并不成立。
构建了一个新的数据集DBP-FB,它使用Freebase作为目标KG,DBpedia作为源KG。在构建过程中,作者利用了DBpedia中的消歧记录来收集共享相同消歧术语的实体,并使用DBpedia和Freebase之间的外部链接作为黄金标准来检索Freebase中与源实体对应的实体。此外,作者还从各自的KG中挖掘涉及这些实体的关系和属性三元组。
DBP-FB具有更高的结构异质性。DBP-FB能够更好地反映实体名称歧义的挑战
DBP-FB还包括无法匹配的实体:设置了一个阈值 θ \theta θ来预测不匹配的实体。EA解决方案通常使用特定的距离度量来检索目标实体。如果源实体与其最近的目标实体之间的距离值大于 θ \theta θ,认为源实体是不可匹配的并且不为其生成对齐结果。阈值 θ \theta θ可以从训练数据中学习。
深度学习小白,知识图谱方向,欢迎交流学习~
参考
https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9174835
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。