当前位置:   article > 正文

GCN相关paper集合_matching long text documents via graph convolution

matching long text documents via graph convolutional networks

Anomaly Detection Report

贡献:

  • 基于VRNN在图的时间序列上的异常检测(the anomaly detection problem on graph time series)
  • 用RNN和VI结合,对时间相关性建模;用GCN对空间信息建模
  • 为了引入其他外部因素,用了特征提取器做特征提取,以学习到外部因素的影响
  • 由于这个model用的目标函数是accumulative ELBO,可以容易地将model拓展为on-line方法。此在交通流数据上的实验证明了该方法的检测能力

问题:

现有的工作只学习了时间间隔h的graph behavior,对长、复杂和重复的patterns效果并不好。

解决办法:

结合variation inference(VI)和RNN对图上的时间序列建模,并且用log likelihood检测异常。时间序列模型是基于VRNN的(variational RNN)。而在空间数据上,用的GCNN处理图数据。

总结:

本文展示了variational inference and recurrent neural networks在时间序列异常检测的应用。在对比试验中证明了模型在图的时间序列上的异常检测中效果不错,spectral filter可以更好的学习空间信息,variational inference and recurrent neural networks对时间相关性进行建模。multi-variable Gaussian model对异常值足够敏感。与之前工作不同的是,我们的模型不仅可以检测异常时间点,还可以定位图上的异常节点。未来计划将该模型用于视频异常检测。


COVARIANT COMPOSITIONAL NETWORKS FOR LEARNING GRAPHS

大多数现有的用于学习图的神经网络通过消息传递方案来解决置换不变性,其中每个节点将来自其邻居的特征向量相加。我们认为这强加了它们的表示能力的限制,而是提出了一种用于表示由分层结构组成的对象的新的通用体系结构,我们称之为covariant compositional networks(CCNs)。在这里,covariant意味着每个神经元的特征向量必须在permutation(排列,交换)后以特定的方式进行转换,类似于CNNs中的steerability(Here, covariance means that the activationof each neuron must transform in a specific way under permutations, similarly tosteerability in CNNs)。我们根据permutation group的张量表示,进行activation transform,来实现协方差,并且导出每个神经元必须实现的相应张量聚集规则。实验表明,CCNs可以超越标准的graph learning基准。

如CNNs此类以信息传递为重点的网络称之为message passing neural networks(MPNNs),它们仅仅将邻接节点的信息求和,是一个严重的局限。所以我们提出了一个新的神经网络结构,叫compositional networks(comp-nets)。其中之一的好处是,与其关注信息如何在节点间传播,它强调的是co

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/833652
推荐阅读
相关标签
  

闽ICP备14008679号