赞
踩
使用常规深度神经网络到脉冲神经网络转换方法应用于脉冲神经网络域时,性能下降的很多,深入分析后提出了可能的解释:一是来自逐层归一化的效率低,二是用于leaky-ReLU函数的负激活缺乏表示。
在过去的十年中,深度神经网络(DNNs)在各种应用中表现出显著的性能。当我们试图解决更艰难和最新的问题时,对计算和电力资源的需求增加已经成为不可避免的。
Spiking neural networks(SNNs)作为第三代神经网络,由于其事件驱动(event-driven)和低功率特性,引起了广泛的兴趣。
然而,SNN很难训练,主要是因为它们的神经元复杂的动力学和不可微的尖峰操作。此外,它们的应用仅限于相对简单的任务,如图像分类。
在今天的分享中,作者研究了SNN在一个更具挑战性的回归问题(即对象检测)。通过深入分析,引入了两种新的方法:channel-wise normalization和signed neuron with imbalanced threshold,这两种方法都为深度SNN提供了快速的信息传输。因此,提出了第一个基于尖峰的目标检测模型,称为Spiking-YOLO。
尽管SNN有很多好处,但目前仅能处理相对简单的任务,由于神经元复杂的动态性以及不可导的操作,暂时没有一个可扩展的训练方法。DNN-to-SNN是近期广泛的SNN训练方法,该方法将目标DNN转化成SNN的中间DNN网络进行训练,然后转成SNN并复用其训练的参数,在小数据集分类上能达到不错的性能,但是在大数据集上分类结果不太理想
论文打算使用DNN-to-SNN转化方法将SNN应用到更复杂的目标检测领域中,图片分类只需要选择分类就好,而目标检测则需要神经网络进行高度准确的数字预测,难很多。在深入分析后,论文实现YOLO的转换主要面临以下两个问题:
来自韩国的比较冷门或者前沿一点的文章,研究方向是脉冲神经网络(Spiking Neural Networks)与YOLO算法的融合,发现韩国人特别擅长对YOLO,SSD等算法进行魔改啊。
Channel-wise data-based normalization
在SNN中,根据输入的幅度产生脉冲序列进行无损的内容传递是极为重要的。但在固定时间,激活过度或激活不足的神经元内将可能导致内容损失,这和临界电压Vth的设置有关。设置过高,神经元需要累积很长时间的电压才能发射脉冲,相反则会过多地发射脉冲。发射频率通常定义为N/T,N为T个timestep的脉冲发射总数,最大的发射率为100%,即每个timestep都发射脉冲:
为了防止神经元的激活过度和激活不足,权值和临界电压都需要精心地选择。为此,很多研究提出了归一化的方法,比如常用的Layer-wise normalization(layer-norm)。该方法通过该层的最大化激活值来归一化层的权值,如上公式,w和b为权重。
经过归一化后,神经元的输出就归一到[0,1],方便设定临界电压。由于最大激活值从训练集得到的,所以测试集和训练集需要有相同的分布,但论文实验发现这种常规的归一化方法在目标检测任务上会导致明显的性能下降。
基于数据的逐通道归一化
传统的脉冲神经网络中,需要确保神经元根据其输入大小产生脉冲序列,其中权值和阈值电压分别负责神经元激活的充足度和平衡度,这会导致要么欠激活要么过激活,从而使信息丢失和性能不佳。
作者深入分析并证明了细粒度的通道正则化可以通过极小的激活来提高神经元的发射率。换句话说,非常小的激活被正确归一化,将在更短的时间内准确地传输信息。文章认为通道正则化的应用可以带来更快更准确的深度SNN,这将使深度SNN应用于更高级机器学习问题成为可能。
上图展示了通过layer-norm后的各层每个channel的最大激活值,蓝色和红色的线分别为每层的平均激活值和最小激活值。可以看到每层的归一化后的激活值偏差较大,总体而言,layer-norm使得神经元的channel偏向激活不足,这在仅需选择分类的图片分类任务是不被察觉的,但对于需要预测准确值的检测任务的回归则不一样。比如传递0.7,则需要在10个timestep脉冲7次,0.007则需要在1000timestep脉冲7次。当tempstep本身就很少时,过低的发射率可能会因发射不到足够的脉冲而导致信息丢失。
Proposed normalization method
整个流程如下:
具体的逻辑如上图和算法,channel-wise的归一化方法能够消除激活值特别小的问题,即得到更高但合适的发射频率,在短时间内也能准确地传递信息。
Signed neuron featuring imbalanced threshold
具有不平衡阈值特征的带符号神经元
引入了一种具有不平衡阈值(即IBT)的带符号神经元,它不仅可以对正负激活进行解释,还可以对leakyReLU负激活值区域的渗漏项进行补偿。如下图所示,作者增加了另外一个Vth负责对负激活响应。
其中,具有IBT的带符号神经元的基本动力学公式如下所示。
通过使用上述具有IBT的带符号神经元,可以在SNN中使用leakyReLU,从而将各种DNN模型转换为广泛应用的SNN。
作者使用Tiny YOLO的实时目标检测模型,在脉冲神经网络中实现最大池化层和BN层。模型在PASCAL VOC2007和2012上训练,在PASCAL VOC2007上测试。所有代码基于Tensorflow Eager框架,在V100的GPU上进行实验。
文章通过实验的设计验证并分析了使用通道正则化和有符号神经元的IBT存在的用处。如下图所示,当通道正则化和有符号神经元都使用时,脉冲-YOLO能够达到51.61%的mAP,这个性能比较高了。
此外,逐层正则化的mAP仅仅46.98%,而通道正则化优势明显,收敛速度也更快。如果不使用本文提出的这两种方法,Spiking-YOLO无法检测目标,如果仅仅使用有符号神经元的话,mAP仅仅7.3%,这表明有符号神经元可以补偿leakyReLU的不足项,并且在解决深度SNN中这种高数值精度问题中起着关键作用。
在上图中,作者还在两种输出编码方案上进行了额外的对比实验,一种基于累计Vth,一种基于脉冲数量。实验结果表明基于Vth的输出编码方案在解释尖峰序列时将更精确,也体现出收敛更快的特点。
实验的目的是无损地将Tiny-YOLO的转移为SNN,结果如上图所示,使用channel-norm和IBT能有效地提升性能,且使用的timestep更少。
作者尝试了不同的解码方式,分别为膜电压Vmem和脉冲数Vmem/Vth,由于脉冲数的余数要舍弃,这会带来误差和信息损失,所以基于膜电压进行解压会更准确。
在今天分享中,作者提出了Spiking-YOLO,第一个SNN模型,通过在non-trivial datasets、PASCALVOC和MSCO上获得与原始DNN相似的结果来成功地执行目标检测。
我认为,这项研究代表了解决深度SNN中更高级的机器学习问题的第一步。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。