赞
踩
说明:本文仅供学习,未经同意请勿转载
笔记时间:2022年08月
博客公开时间:2023年3月2日
前面我们大致的了解了Graph Transformer是什么,以及它与GNN、Transformer的差别,关联。如果对这方面不是很熟悉的朋友可以看一下【图-注意力笔记,篇章1】一份PPT带你快速了解Graph Transformer:包括Graph Transformer 的简要回顾且其与GNN、Transformer的关联
在大致的了解Graph Transformer之后,笔者在篇章2中将介绍一下两篇笔者自身认为必看的经典Graph Transformer的文章——Graphormer和GraphFormers。
别看这两个名字有点像,但是它们的做法是不一样得。在篇章1中,我们可以知道Graph Transformer实际上就是GNN和Transformer的结合。根据笔者我阅读的文献来看,我大致地将后面改进方向粗略地分成四个(ps:当然本人看的文献有限,存在缺漏,有不对的或者其他更加有趣的点,欢迎学习交流!):
基于上面的介绍,其实我想分享的这两篇论文的理由也十分清晰了。后面就来看看这两篇文献吧。
在介绍之前,我们先概览一下这两篇文章的信息。
可以发现这两篇文献都是NeurlPS 2021的文章,但它们的驱动任务是不同的。Graphormer是在化学分子评分的场景下提出,主要做的是图层面的回归任务,而GraphFormer则是边层面上的任务,做的是边预测,主要应用在文本场景中。在下面的笔记中,笔者我只介绍和概括笔者认为比较重要的内容,对于细节部分,大家感兴趣的话,建议直接看原论文。
paper name:《Do Transformers Really Perform Bad for Graph Representation?》
原文链接:https://proceedings.neurips.cc/paper/2021/file/f1c1592588411002af340cbaedd6fc33-Paper.pdf
来源:大连科大, NeurIPS
数据背景:Kaggle比赛,化学分子评分背景
年限:2021
Graphormer论文不得不夸一下这篇论文的图
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/86882
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。