赞
踩
对复杂网络动力学的学习是网络科学的重要命题,至今尚未完全解决,各种新方法层出不穷。
本文总结了康奈尔大学博士后臧承熙在集智-凯风研读营上的分享,介绍其一作论文《复杂网络上的神经微分方程》。该文被 KDD2020 接收。这项工作将图神经网络与微分方程结合,提出神经微分方程(NDCN)模型,将离散时间预测变为连续时间预测,在时间预测和分类任务中都有良好表现,并且大量节省参数。这为复杂网络的动力学学习、自动建模提供了新的思路。
背 景
复杂网络无处不在。受益于网络科学的发展,我们对网络的认识也在逐步深入。网络科学带给我们一种新的看待世界的视角:很多系统都可以被解释为网络结构上的相互作用。从人类的大脑网络,到社会的交通流网络,还有自然界的生物网等等。那么这些个体在网络上是如何相互作用的?它们的相互影响是否遵循着某种规则?答案是确定的,大多数网络上的个体都遵循着一定的相互作用法则,我们称之为网络上的动力学,学习网络上的动力学一直以来都是科学界十分关注的问题之一。
本文要介绍的论文《Neural Dynamics on Complex Networks》,由康奈尔大学臧承熙博士完成。论文的关注点便是网络上的动力学学习问题。这篇文章对动力学的学习方式也十分有趣:研究者借鉴了微分方程在系统动力学建模中的优势,引入微分方程,以数据驱动的方式,对网络上的动力学进行建模。
论文题目:
Neural Dynamics on Complex Networks
论文地址: https://www. kdd.org/kdd2020/accepte d-papers/view/neural-dynamics-on-complex-networks
具体来说,我们可以这样定义这篇文章想要解决的问题:在一个网络上,节点之间以遵循着某种动力学法则的方式相互影响,这使得节点上的信息会随着时间产生连续变化。我们可以对动力学进行这样的描述:
其中X(t)表示t时刻的节点信息,G表示网络,θ则表示管理动力学的参数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。