赞
踩
目录
1.Traditional ML for Graphs的流程
2.Graph Representation Learning
Node Embeddings:Encoder and Decoder
4.框架总结 Encoder+Decoder FrameWork
时间大多花费在特征工程中(为了能找到最好描述网络的特征,最后将特征用在下流预测任务)。
例如:在node-level,学习如何在d维空间上映射此节点,将d维的向量称为特征表示(或embedding)。mapping过程自动发生,且d维向量捕获我们感兴趣的网络的底层拓扑结构。
例子:可以从下图中看到图中节点被映射到2D空间
图的定义(仅考虑比较简单的无向图,也没有附加的属性,只给定节点集和邻接矩阵)
目标是:对节点进行encoder(映射到embedding 空间),因此在embedding空间中的相似性近似于原始图中的相似性。学习这个encoder
一般embedding空间中的相似性度量采用点积(余弦相似性),目标:使embedding空间中的相似性度量近似等于原始网络中定义的相似性度量。
总结:
比较简单的Encoder只是一个embeddiing-lookup(查找表)。只要找到一个embeddings的矩阵,就只需要查找对应编号的节点的embedding。Z是d×|V|维的矩阵,第i列为节点i的embedding。v是位置向量(indicator),是one-hot编码,除了表明是节点v的元素为1,其它元素都为0.
每一个节点被分配一个独一无二的embedding 向量,我们直接优化每一个每一个节点的embedding。
当然之后也会介绍deep encoder
节点连接;共享邻居节点;有相同的结构性作用......
之后介绍使用random walks的相似性度量
学习节点嵌入是unsupervised/self-supervised的方式,因为:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。