赞
踩
图神经网络火起来后,图异常检测算法也大火,得到了很多算法学者的研究,今天看到了一篇结构比较简单的图异常检测算法的论文《Subtractive Aggregation for Attributed Network Anomaly Detection》,内容比较短,但是挺有意思的,特此分享一下,如果我的理解描述有误,也希望各位指正。
论文链接:Subtractive Aggregation for Attributed Network Anomaly Detection。
图异常检测算法目标是在图结构中,去检测显着偏离其相应背景的节点。在传统的异常检测中,其相应背景被定义为绝大多数的数据信息,但在网络中,异常可能是局部的,与大多数情况相比看起来很正常难以被察觉,尽管已经进行了一些尝试以将社区(图结构中的局部子图)视为背景,但学习合适的社区以进行有效的异常检测仍然具有挑战性,此外,异常的模式是未知的,定义异常的标准是很难确定的。
为了弥合差距,在该论文中,作者认为,通过使用适当的模型,只需将相邻节点视为检测异常的背景就足够了。 相应地,作者提出了一种新的异常感知图神经网络(AAGNN)。 它利用减法聚合将每个节点表示为与其邻居(背景)的偏差。 具有高置信度的正常节点被用作标签来学习定制的超球面作为异常标准。实验表明,AAGNN 显着超越了最先进的方法。
这篇论文做出的贡献如下:
AAGNN 由一个为 ANAD(Attributed network anomaly detection图异常检测) 量身定制的异常感知图神经层组成,它利用减法聚合来测量节点与邻域节点的模式偏差。如果一个节点拥有稀有模式或表现出奇怪的行为,则其与邻域的模式偏差是显着的; 而正常节点通常与其邻域呈现相似的模式,因此具有微不足道的异常。
模型的输入是一个节点带权(或带有特征信息向量)的图,模型的输出是每个节点都有的一个异常信息感知向量。
下述是初始的比较简单的AAGNN模型的数学公式。
xi表示节点的特征向量,W是模型的神经网络权重,N(k,i)表示节点i的k-top节点(k跳节点),hi表示最终的异常信息感知向量。Aggregate(zj)表示对节点i的k-top节点取平均。
这个公式很好理解的,但是为了训练的效果更好,上述直接取平均的结果是AAGNN的一种变体,即AAGNN-M。因为这几年注意力机制比较火热,同时为了探究注意力机制给AAGNN模型带来的影响,作者又引入了注意力机制,因而该模型的另外一种变体的公式为,该变体叫AAGNN-A。
公式非常好理解。
我觉得AAGNN模型的训练方式才是最具亮点的地方,因为前面模型的结构概念其实都比较简单,好理解,但是训练的损失函数就非常具有亮点了。
AAGNN模型的训练目标如下。
其中hi是模型输出的每个节点的异常信息感知向量(上面已经说过),c是所有正常样本的向量均值,另外几个符号不太好打出来,截图原论文如下。
最终每个节点的异常分数计算如下。
该模型需要有标签的正常节点和异常节点数据,因为训练目标的公式中c需要正常的节点特征信息向量计算,但现实生活中去标注节点是否异常成本是很高的,为了解决这个问题,该论文提出了一种方法,我也觉得是该论文除了训练的损失函数外的另外一大亮点。
该方法具体为:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。