当前位置:   article > 正文

KAN学习笔记

KAN学习笔记
KAN学习笔记

这篇论文介绍了一种新型的神经网络架构——Kolmogorov-Arnold Networks(KANs),它是由Kolmogorov-Arnold表示定理启发而来,**旨在作为多层感知器(MLPs)的有前途的替代品。KANs的核心特点是在网络的边缘(即权重)上拥有可学习的激活函数,而不是像传统的MLPs那样在节点(即神经元)上使用固定的激活函数。**这些激活函数由一元函数(univariate functions)组成,每个权重参数被一个作为样条(spline)参数化的一元函数所替代。论文展示了KANs在准确性和可解释性方面相较于MLPs的优势。

1.mlp在节点(“神经元”)上有固定的激活函数,而kan在边缘(“权重”)上有可学习的激活函数。kan根本没有线性权重——每个权重参数都被参数化为样条的单变量函数所取代。
在这里插入图片描述

2.KANs可以很好地学习组合结构和单变量函数。

1)无固定激活函数:与传统MLP在节点上使用固定的激活函数(如ReLU、Sigmoid等)不同,KAN模型的激活函数是可学习的,并且放置在网络的边缘(即权重)上。
2)激活函数的参数化:KAN中的每个激活函数由一个一元函数(univariate function)组成,这些函数被参数化为B样条(B-spline)曲线。这意味着每个权重参数不再是一个单一的数值,而是一个函数。
在这里插入图片描述

3.kan在数据拟合和PDE求解方面比mlp更准确。
4.如前所述,这样的网络被认为太简单,无法在实践中任意地用光滑样条近似任何函数!因此,我们将我们的KAN概括为更广泛和更深。目前还不清楚如何使KANs更深,因为Kolmogorov-Arnold表示对应于两层的KANs。据我们所知,目前还没有一个“一般化”版本的定理对应于更深层次的KANs。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/577692
推荐阅读
相关标签
  

闽ICP备14008679号