当前位置:   article > 正文

论文浅尝 | Knowledge Graph Contrastive Learning for Recommendation

knowledge graph contrastive learning for recommendation

9683babe32956c14ca0e268bb19c4a4a.png

笔记整理:刘尧锟,天津大学硕士

链接:https://arxiv.org/pdf/2205.00976.pdf

动机

知识图谱已被用作有用的辅助信息来提高推荐质量。在这些推荐系统中,知识图谱信息通常包含丰富的事实和项目之间的内在语义相关性。然而,此类方法的成功依赖于高质量的知识图谱,并且可能无法学习质量表示,面临两个挑战:i)实体的长尾分布导致 KG 增强项目表示的监督信号稀疏;ii) 现实世界的知识图谱通常是嘈杂的,并且包含项目和实体之间与主题无关的连接。这种 KG 的稀疏性和噪声使得 item-entity 依赖关系偏离了反映它们的真实特征,这显着放大了噪声效应,阻碍了用户偏好的准确表示。为了填补这一研究空白,我们设计了一个通用的知识图对比学习框架(KGCL),以减轻知识图增强推荐系统的信息噪声。在三个公共数据集上进行的大量实验证明了我们的 KGCL 始终优于最先进的技术。

亮点

KGCL的亮点主要包括:

(1)这项工作引入了在联合自我监督学习范式下将知识图学习与用户-项目交互建模相结合的思想,以提高鲁棒性并缓解推荐的数据噪声和稀疏问题;

(2)提出了一个通用的 KGCL,一个知识图引导的拓扑去噪框架,提供具有知识感知对比目标的跨视图自识别监督信号。我们还提供理论分析来证明综合学习目标带来的好处;

(3)对三个公共数据集进行了不同的实验,提出的 KGCL 在不同的设置中始终优于各种最先进的推荐方法。进一步的消融分析证明了我们关键组件的合理性。

概念及模型

MCCLK包括三个主要模块:1)关系感知知识聚合。设计了一个关系感知知识嵌入层,以反映知识图连接结构上的关系异质性;2)知识图谱增强。利用外部项目语义相关性来指导跨视图自监督信号的数据增强;3)知识引导的对比学习。将我们的知识图增强模式与图对比学习范式相结合,旨在提高基于图的协同过滤在模型准确性和鲁棒性方面的表示能力。 

模型整体框架如下:

3ef9e6a75bfd0c54d5d9c3da0df98663.png

l关系感知知识聚合

为了解决在知识图谱上手动设计路径生成的局限性,我们的 KGCL 将依赖实体和关系的上下文投影到具有参数化注意力矩阵的特定表示中。为此,我们在Gk 中的项目及其连接实体之间建立了消息聚合机制,用于基于异构注意力聚合器生成知识感知项目嵌入,如下所示 

dfd33167a34c052b58d174800215ff2a.png

此外,为了进一步增强实体-项目依赖关系的多关系语义表示空间,我们在关系感知知识聚合器和 TransE之间执行替代训练。 这种基于翻译的知识图嵌入的一般思想是使头部和关系嵌入和的总和与尾部表示一样接近。定义来表示嵌入向量之间的基于L1范数的相似性测量函数。基于翻译的优化损失基于翻译的优化损失 L:

6a41569d564c7aa13dea578dab3b577f.png

l知识图谱增强

在我们的 KGCL 框架中,我们建议通过实体方面的自我辨别生成不同的知识图结构视图,用于对比学习。特别是,我们在输入知识图谱上采用随机数据增强方案来生成两个相关的数据视图。然后,导出单个项目的知识图结构一致性,以反映项目对知识噪声扰动的不变性。为此,我们因此在知识图结构上设计了数据增强算子如下:

4c95a97ddb28fce1e8755eecc217796d.png

为了探索基于增强视图的每个项目的一致性属性,定义了项目i的知识图结构一致性ci与从不同视图编码的表示之间的一致性,如下:

60022881aae9d5136480fa1a0aafcb80.png

l知识引导的对比学习

利用基于图的协同过滤框架和关系感知知识聚合机制对用户和项目的表示进行编码。由于 LightGCN [11] 的有效性和轻量级架构,采用其消息传播策略对来自用户-项目交互的协作效果进行编码,如下所示:

04590fd6c6c6d71c9d05477c1cfc8c14.png

损失如下:

c5b020cda98421eb87e58e7abde6a3b5.png

4fb0be2c32b3815fe2c1e55bd6f62772.png

5a91f5b631ca751e92bfda9c6cf98dc5.png

理论分析

实验

作者采用了3个公开数据集进行实验,分别是:Yelp2018、 Amazon-Book和 MIND。首先是有效性实验,模型的评价指标为:recall 和ndcg。

4d4a68c9021ab8c22fc22321a28a4fa9.png

在所有指标方面,KGCL在三个数据集上始终优于所有baseline。

通过比较KGCL和两种变体来检查模型中主要组件对最终性能的贡献:

•w/o KGA:KGCL 的变体,在用户-项目交互图上没有知识引导的增强方案。相反,交互图的对比视图是通过随机边采样构建的,用于互信息估计。

•w/o KGC:我们从 KGCL 中删除知识图对比学习组件,并将从我们的关系感知知识聚合器编码的项目表示直接转发到基于图的 CF 框架中进行对比学习。

图3报告了两种变体和KGCL的结果。

2fff44753607aed4676fd2672f2b09cb.png

为了研究我们的 KGCL 在处理没有足够交互的用户方面的稳健性,我们遵循 [50] 中的类似设置来生成稀疏用户集,Yelp2018 和 Amazon-Book 的交互少于 20 次,而 MIND 数据的交互次数少于5。图 6 报告了稀疏用户的结果。

6a4708916e968f94285536d5384e5ad3.png

为了证明我们的 KGCL 在长尾项目推荐中的效果,我们将所有项目分成五个具有相同数量的项目(交互密度从第 0 组增加到第 4 组)。对不同的项目组进行单独的评估。结果如图5所示.

c4193cfdd69aea891c19a78ba07a881a.png

总结

在这项工作中,提出的 KGCL 框架在知识引导的对比学习范式下进行了探索知识图语义和缓解推荐的数据噪声问题的初步尝试。基于估计知识模糊项目对用户偏好学习的影响,进行 KG 感知数据增强以研究辅助自我监督信号。这项工作为知识感知推荐系统开辟了新的研究可能性。与各种最先进的方法相比,对几个真实世界数据集的广泛实验证明了 KGCL 的优越性。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

20389372bddf541073d9020785c99a41.png

点击阅读原文,进入 OpenKG 网站。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/374430
推荐阅读
相关标签
  

闽ICP备14008679号