当前位置:   article > 正文

YOLOv10全网最新创新点改进系列:融合全网爆火的KAN网络,(KANS)作为多层感知器(MLP)的替代方案,使KANS在准确性和可解释性方面优于MLP,助力YOLOv10有效涨点!!!_kan yolo

kan yolo

YOLOv10全网最新创新点改进系列:融合全网爆火的KAN网络,(KANS)作为多层感知器(MLP)的替代方案,使KANS在准确性和可解释性方面优于MLP,助力YOLOv10有效涨点!!!

所有改进代码均经过实验测试跑通!截止发稿时YOLOv10已改进40+!自己排列组合2-4种后,考虑位置不同后可排列组合上千万种!改进不重样!!专注AI学术,关注B站up主:Ai学术叫叫兽er!

购买相关资料后畅享一对一答疑

# YOLOv10全网最新创新点改进系列:融合全网爆火的KAN网络,(KANS)作为多层感知器(MLP)的替代方案,使KANS在准确性和可解释性方面优于MLP,助力YOLOv10有效涨点!!!


详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

一、 KAN简介

论文地址:https://arxiv.org/pdf/2404.19756

受Kolmogorov-Arnold表示定理的启发,我们提出了Kolmogorov-Arnold网络(KANS)作为多层感知器(MLP)的有前途的替代方案。MLP在节点(“神经元”)上有固定的激活函数,而KANS在边上有可学习的激活函数(“权重”)。KANS根本没有线性权重–每个权重参数都被参数化为样条线的单变量函数所代替。我们表明,这个看似简单的改变使KANS在准确性和可解释性方面优于MLP,在小规模AI+科学任务中。在精度方面,在函数拟合任务中,较小的KAN可以获得与较大的MLP相当或更好的精度。从理论和经验上看,KANS比MLP具有更快的神经标度律。在可解释性方面,KANS可以直观地可视化,并可以很容易地与人类用户交互。通过数学和物理的两个例子,坎斯被证明是有用的“合作者”,帮助科学家(重新)发现数学和物理规律。总而言之,KANS是MLP的有前途的替代品,为进一步改进当今严重依赖MLP的深度学习模式打开了机会。

在这里插入图片描述
图0.1:多层感知器(MLP)与Kolmogorov-Arnold网络(KANS)

二、KAN网络架构介绍

2.1 Kolmogorov-Arnold网络(KAN)的多层感知器(MLP)

是受到普适逼近定理的启发。相反,我们将重点放在Kolmogorov-Arnold表示定理上,该定理可以通过一种称为Kolmogorov-Arnold网络(KAN)的新型神经网络来实现。我们回顾了2.1节中的Kolmogorov-Arnold定理,以启发2.2节中Kolmogorov-Arnold网络的设计。在第2.3节中,我们为KANS及其神经标度律的表达能力提供了理论保证,并将它们与文献中已有的逼近和推广理论联系起来。在第2.4节中,我们提出了一种网格扩展技术,以使KANS越来越准确。在2.5节中,我们提出了简化技术,以使KANS易于解释。
在这里插入图片描述
图2.2:左侧:流经网络的激活符号。右图:激活函数被参数化为B样条线,允许在粗粒度和细粒度网格之间切换。

2.2 KAN网络结构

假设我们有一个由输入输出对{xi,Yi}组成的监督学习任务,其中我们想要找到f,使得对所有数据点,yi≈f(Xi)。情商。(2.1)暗示如果我们能找到合适的单变量函数ϕq,p和Φq,我们就完蛋了。这启发我们设计一个显式参数化Eq的神经网络。(2.1)。由于所有要学习的函数都是单变量函数,我们可以将每个一维函数参数化为一条B-Spline曲线,带有局部B-Spline基函数的可学习系数(见图2.2右侧)。现在我们有了一个Kan的原型,它的计算图由公式精确地描述。(2.1),如图0.1(B)所示(输入维n=2),表现为两层神经网络,其激活函数放置在边缘而不是节点(对节点执行简单求和),并且中间层具有2n+1宽度。
正如前面提到的,这种网络太简单了,在实践中用光滑的样条线很难很好地逼近任何函数!因此,我们将我们的Kan概括为更宽、更深。目前还不清楚如何使KANS更深入,因为Kolmogorov-Arnold表示对应于两层KANS。就我们所知,目前还没有与更深层次的Kans相对应的定理的“广义”版本。当我们注意到MLP和KANS之间的类比时,突破就发生了。在MLP中,一旦我们定义了一个层(由线性变换和非线性组成),我们可以堆叠更多的层来使网络更深。要打造深度看点,我们首先要回答:什么是看看层?结果表明,具有nin维输入和nout维输出的Kan层可以定义为一维函数的矩阵

三 最后的结论:我应该使用Kans还是MLP?

目前,KANS最大的瓶颈在于训练速度慢。在给定相同数量的参数的情况下,KAN通常比MLP慢10倍。我们应该诚实地说,我们并没有努力优化Kans的效率,所以我们更多地将Kans的缓慢训练视为未来需要改进的工程问题,而不是根本的限制。如果一个人想快速训练一个模型,就应该使用MLP。然而,在其他情况下,KANS应该与MLP相媲美或更好,这使得它们值得尝试。图6.1中的决策树可以帮助决定何时使用KAN。简而言之,如果你关心可解释性和/或准确性,并且训练缓慢并不是一个主要问题,我们建议尝试使用KANS,至少对于小规模的AI+科学问题。

AI学术叫叫兽er在这!家人们,给我遥遥领先!!!
AI学术叫叫兽er在这!家人们,给我遥遥领先!!!
AI学术叫叫兽er在这!家人们,给我遥遥领先!!!

改进教程

2.1 修改YAML文件

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

2.2 新建.py

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

2.3 修改tasks.py

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

验证是否成功即可

执行命令

python train.py
  • 1

改完收工!
关注B站:AI学术叫叫兽
从此走上科研快速路
遥遥领先同行!!!!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

三、验证是否成功即可

执行命令

python train.py
  • 1

改完收工!
关注B站:Ai学术叫叫兽er
从此走上科研快速路
遥遥领先同行!!!!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号