当前位置:   article > 正文

脉冲神经网络_【强基固本】脉冲神经网络(SNN)

snn csdn

“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。

作者: 初识CV

地址:https://www.zhihu.com/people/AI_team-WSF

本文大部分内容来自:脉冲神经网络的五脏六腑,做一下笔记对原始文章增添一下自己的理解。

https://blog.csdn.net/u011853479/article/details/61414913

第一代神经网络:感知机,第二代神经网络:ANN,第三代神经网络:脉冲神经网络。由于DCNN采用基于速率的编码,所以其硬件实现需要消耗更多的‘能量’。SNN中每个神经元最多使用一个脉冲,而大多数神经元根本不放电,导致能量消耗最小。

Spike-YOLO:SNN在目标检测上的首次尝试:

https://zhuanlan.zhihu.com/p/159982953

SNN的构建过程

构建脉冲神经元模型(建模)——构建神经脉冲序列(编码)——脉冲神经网络的训练方法 简化过程:建模——编码——训练(学习规则、转换等)

学习规则

简单介绍无监督的STDP和有监督的R-STDP 无监督的STDP(特征要多):利用STDP网络可以成功地提取频繁出现的视觉特征。但是需要额外的分类器,例如:SVM等。 有监督的R-STDP(特征少也可以):提取对任务有诊断作用的特征,然后丢弃其他特征。网络可以只根据最后一层中最早的峰值来决定对象的类别,而不使用任何外部分类器,使用R-STDP训练的神经决策层。 特征图数量较少时,R-STDP在寻找诊断特征(丢弃干扰物)方面明显优于STDP。R-STDP在提高性能和置信水平方面表现出单调的行为,但在置信水平上,R-STDP不如R-STDP稳健。

ANN向SNN转换

采用近似转换的方式,Reset to zero(适用于浅层网络)和Reset by subtraction(适用于深层网络)两种转换方式,脉冲发射率  40372032-c135-eb11-8da9-e4434bdf6706.svg  和ANN的激活值  41372032-c135-eb11-8da9-e4434bdf6706.svg  成比例

064879631f4ad3a062239ee51b491b97.png

https://blog.csdn.net/h__ang/article/details/90609793

01

构建脉冲神经元模型

传统的人工神经元模型主要包含两个功能,一是对前一层神经元传递的信号计算加权和,二是采用一个非线性激活函数输出信号。 前者用于模仿生物神经元之间传递信息的方式,后者用来提高神经网络的非线性计算能力。相比于人工神经元,脉冲神经元则从神经科学的角度出发,对真实的生物神经元进行建模。 SNN所构成的深度网络是一种高效节能的神经网络,每幅图像只有几个峰值作为特征,这使得它适合于神经形态硬件的实现。(虽然现在SDNN只能在小的数据集上面进行测试,而且识别精度不如DCNN,但是相信不久的将来SDNN会是一个发展很好的方向)。

1.1 Hodgkin-Huxley( HH)模型

HH模型的数学公式推导和MATLAB代码: https://zhuanlan.zhihu.com/p/102770891 HH模型是一组描述神经元细胞膜的电生理现象的非线性微分方程,直接反映了细胞膜上离子通道的开闭情况。 HH模型所对应的电路图如图1-2所示,其中 C 代表脂质双层(lipid bilayer) 的电容;RNa, RK, Rl分别代表钠离子通道、 钾离子通道与漏电通道的电阻(RNa, RK 上的斜箭头表明其为随时间变化的变量, 而 R l 则为一个常数);E l, E Na, E K 分别代表由于膜内外电离子浓度差别所导致的漏电平衡电压、钠离子平衡电压、钾离子平衡电压;膜电压V代表神经膜内外的电压差,可以通过HH模型的仿真来得到V随时间变化的曲线。

5d2900f958a436cb30750f03781f107b.png

图1-1
e21a87fd60e3e59bd2d9340e1d9353a6.png 神经元的膜电压变化,图1-2
图1-2中共有6个输入脉冲(垂直虚线所示),每个脉冲触发膜电压V的快速上升。如果输入脉冲之间的时间间隔较长(例如在1ms与22ms到达的2个脉冲之间,由于漏电通道的作用,没有新的输入脉冲),膜电压V就会随着时间逐渐降低至平衡电压El。如果有多个输入脉冲在短时间内连续到达(例如在45~50ms 之间的3 个脉冲),那么膜电压V会上升至发放阈值Vth(红色水平虚线所示) 而触发一个输出脉冲。之后V被重置为低于平衡电压El的Vreset,然后逐渐回升至平衡电压El。神经元的行为与输入的时间特性密切相关,一组脉冲如果在短时间内连续到达,可以触发神经元的脉冲;但是同样数量的一组脉冲如果在较长时间内分散到达,那么膜电压的漏电效应便不会产生脉冲。 HH模型精确地描绘出膜电压的生物特性,能够很好地与生物神经元的电生理实验结果相吻合,但是运算量较高,难以实现大规模神经网络的实时仿真。

1.2 Leaky Integrate and Fire(LIF)模型

为了解决HH模型运算量的问题,许多学者提出了一系列的简化模型。LIF模型将细胞膜的电特性看成电阻和电容的组合。 简单介绍:

https://blog.csdn.net/qq_34886403/article/details/75735448

1.3 Izhikevich模型 HH模型精确度高,但运算量大。LIF模型运算量小,但牺牲了精确度。Izhikevich模型结合了两者的优势,生物精确性接近HH模型,运算复杂度接近LIF模型。

02

神经脉冲序列

在完成神经元的建模之后,需要对神经元传递的信息进行编码,一种主流的方法是通过神经元的放电频率来传递信息。在大脑皮层,连续动作电位的时序非常没有规律。一种观点认为这种无规律的内部脉冲间隔反映了一种随机过程,因此瞬时放电频率可以通过求解大量神经元的响应均值来估计。另一种观点认为这种无规律的现象可能是由突触前神经元活动的精确巧合所形成的,反映了一种高带宽的信息传递通路。本文主要基于第一种观点,用随机过程的方法生成脉冲序列。

2.1 瞬时放电频率

神经元的响应函数由一系列的脉冲函数所构成,如公式所示。

d0bdcfa3afb391baa9b8ac1739776bcd.png

其中,k表示某个脉冲序列中的脉冲数, 表示每个脉冲到达的时间。由脉冲函数的性质可得,在时间间隔内,脉冲数可通过公式来计算。
80ab1c204fba5f48ee18b76d0f056a2f.png
因此瞬时放电频率可定义为神经元响应函数的期望,如公式所示。

12dd3e470510f58ee3df830528d2a5bf.png

根据概率学统计理论,以某一小段时间间隔内的神经元响应函数的均值来作为放电频率的估计值,如公式所示。(重点)

9a7763e584eb84aefc8107d2196cd4f7.png

2.2 齐次泊松过程

假设每个脉冲的生成是相互独立的,并且瞬时放电频率是一个常数。设时间段内含有k个脉冲,那么在时间段内含有n个脉冲的概率可由公式表示。

94e6196d4a2ba392a8ced13dad6b43b3.png

其中,

8148f173e5c90d5d3139e4c57aeb1e50.png

令k趋于无穷大,同时平均放电频率保持不变,得到:

e028ce79217793ef6304ce220625a31b.png

可以看出,上式与泊松分布的概率密度函数形式相同,进一步说明了脉冲发放过程可用泊松过程来模拟。

2.2.1 泊松脉冲序列的生成

2.2.1.1 相邻脉冲间的时间间隔固定

对于齐次泊松过程,在固定时间间隔δt内,产生一个脉冲的概率为:
21b5b0e1aedcfdc99c74216818b7e272.png
因此,以泊松模型产生神经脉冲序列的方法如下。选取一个固定的时间间隔,产生一个 区间的符合均匀分布的随机数x[i]。对于每一个间隔,如果x[i]≤rΔt ,则发放一个脉冲,否则不产生脉冲。在实践中,时间间隔必须足够小,产生的脉冲才会近似符合泊松分布。

2.2.1.2 相邻脉冲见的时间间隔不固定

根据上面的讨论,在间隔[  52372032-c135-eb11-8da9-e4434bdf6706.svg  ,  52372032-c135-eb11-8da9-e4434bdf6706.svg +τ]内,发放的脉冲数为0的概率为:
ad42fe8ac2cd6fd91463a022c38b50df.png
因此,在时刻 52372032-c135-eb11-8da9-e4434bdf6706.svg +τ之前发放脉冲的概率可表示为:
88d7bc17465d48d7a09059bf2d93651b.png
那么,相邻两个脉冲之间的等待时间的概率密度分布可表示为:

6de77ebd868b6edb32133b2f07f64a52.png

由此,产生神经脉冲序列的方法如下。当一个脉冲发放完成之后,从符合指数分布的随机数集合中随机选择一个数作为下一次发放脉冲需等待的时间。依次类推,便可产生符合泊松模型的神经脉冲序列。

2.3 非齐次泊松过程

相较于齐次泊松过程,非齐次泊松模型假设放电频率是时间的函数 ,更具有一般性。只有间隔 足够小,那么在这段时间内,放电频率仍可以视为常数。上述的理论依然有效。

2.4 扩展

2.4.1 不应期

根据神经科学理论,神经元在放电之后的短暂时间内存在不应期,即对输入信号不响应。为了在脉冲序列中模拟这个过程,在神经元放电之后的不应期内将瞬时放电频率置为0。在不应期结束之后,瞬时放电频率在限定时间内逐渐回到原始值。

2.4.2 涌现

神经元在某个时刻会集中性的放电,称为涌现现象。为了模拟这种现象,设置每个时刻发放的泊松脉冲数不固定,可能包含0,1,或多个脉冲。每个时刻发放的脉冲数符合一定的概率分布。例如,设x是 上符合均匀分布的一个随机数,当x取不同值时,该时刻发放的脉冲数也不同。

03

脉冲神经网络的训练方法

人工神经网络主要基于误差反向传播(BP)原理进行有监督的训练,目前取得很好的效果。对于脉冲神经网络而言,神经信息以脉冲序列的方式存储,神经元内部状态变量及误差函数不再满足连续可微的性质,因此传统的人工神经网络学习算法不能直接应用于脉冲神经神经网络。目前,脉冲神经网络的学习算法主要有以下几类。 需要注意的点:
  1. 突触的权重的调整是由突触前和突触后神经元的相对峰值时间决定的以及teacher的反馈。
  2. STDP 分为LTP(长期增强作用)和LTD(长期抑制作用)。
  3. 在训练中,无论何时z神经元释放一个峰值,它都会经历某种形式的STDP。
  4. teacher决定输出的z神经元是进行Hebbian STDP还是anti-Hebbian STDP,如果z神经元表示目标类别,那么它将进行Hebbian STDP。否则,它将进行anti-Hebbian STDP。
  5. 使用正则化技术对权重进行了重新规范化(最后的改进将会讲到为什么要这样做)。

3.1 无监督学习算法

这类算法从生物可解释性出发,主要基于赫布法则 (Hebbian Rule)。Hebb在关于神经元间形成突触的理论中提到,当两个在位置上临近的神经元,在放电时间上也临近的话,他们之间很有可能形成突触。而突触前膜和突触后膜的一对神经元的放电活动(spike train)会进一步影响二者间突触的强度。这个假说也得到了实验验证。华裔科学家蒲慕明和毕国强在大树海马区神经元上,通过改变突触前膜神经元和突触后膜神经元放电的时间差,来检验二者之间突触强度的变化。实验结果如图3-1所示。

94554d55a81334d07d9d27814cae0bf9.png

图3-1 其中,EPSC表示突触强度。当EPSP(兴奋性脉冲)在spike之前产生,突触强度增强。当EPSP在spike之后产生,突触强度减弱。这个现象被称为脉冲序列相关的可塑性(Spike Timing Dependent Plasticity,STDP)。 基于该生物现象,提出了两种主流的无监督STDP学习算法。

3.1.1 三相STDP

权值更新规则如公式所示。
fe4d8b924f71df122e31efbb3b2623f2.png
其中,  5d372032-c135-eb11-8da9-e4434bdf6706.svg  和  60372032-c135-eb11-8da9-e4434bdf6706.svg  表示学习率, 表示突触前脉冲传到突触后脉冲所需的时间。函数关系如图3-2所示。

ca9dd9705737681e05e4c5b080f77c39.png

图3-2

3.1.2 二相STDP

权值更新规则如公式所示。

e06027ce77673595d84033d686812c2e.png

其中,  65372032-c135-eb11-8da9-e4434bdf6706.svg  和  66372032-c135-eb11-8da9-e4434bdf6706.svg  用来控制电压下降的速度,被视为时间常数。函数关系如图3-3所示。

31959f0ca3d7ea212cbfce6b63f63a67.png

图3-3

3.2 有监督学习算法

有监督学习算法依据是否具有生物可解释性分为两大类,一种是基于突触可塑性的监督学习算法,另外两种分别是基于梯度下降规则的监督学习算法和基于脉冲序列卷积的监督学习算法。

3.2.1 基于突触可塑性的监督学习算法

3.2.1.1 监督Hebbian学习算法

通过“教师”信号使突触后神经元在目标时间内发放脉冲,“教师”信号可以表示为脉冲发放时间,也可以转换为神经元的突触电流形式。在每个学习周期,学习过程由3个脉冲决定,包括2个突触前脉冲和1个突触后脉冲。第一个突触前脉冲表示输入信号,第二个突触前脉冲表示突触后神经元的目标脉冲,权值的学习规则可表示为:
9f2c783ab6ec12bd779602c5fbc99039.png
其中,η表示学习率,  6a372032-c135-eb11-8da9-e4434bdf6706.svg  和  6b372032-c135-eb11-8da9-e4434bdf6706.svg  分别表示突触后神经元的实际和目标脉冲时间。

3.2.1.2 远程监督学习算法(ReSuMe)

远程监督方法结合STDP和anti-STDP两个过程,提出的突触权值随时间变化的学习规则为:
9d60050fd3680dc2097a094a5b98350f.png
797aabf5ecf2aafc64d7f66e0713f22f.png
应用ReSuMe算法训练脉冲神经网路,突触权值的调整仅依赖于输入输出的脉冲序列和STDP机制,与神经元模型无关,因此该算法可适用于各种神经元模型。后来针对该算法的改进,使得ReSuMe算法可应用到多层前馈脉冲神经网络。

3.2.1.3 其他监督学习算法

结合BCM(Bienenstock-Cooper-Munro)学习规则和STDP机制,Wade等人提出了多层前馈脉冲神经网络的SWAT(Synaptic Weight Association Training)算法。研究者应用奖惩调制的STDP机制实现了脉冲神经网络脉冲序列模式的学习。此外,有学者从统计学的角度出发提出了一种脉冲神经网络的监督学习算法,学习规则可有一个类似于STDP的二阶学习窗口来描述,学习窗口的形状是通过优化过程的不同场景所加入的约束来影响的。 基于脉冲序列卷积的监督学习算法,通过对脉冲序列基于核函数的卷积计算,可将脉冲序列解释为特定的神经生理信号,比如神经元的突触后电位或脉冲发放的密度函数。通过脉冲序列的内积来定量地表示脉冲序列之间的相关性,评价实际脉冲序列与目标脉冲序列的误差。 基于梯度下降的监督学习算法。借鉴传统人工神经网络的误差反向传播算法,利用神经元目标输出与实际输出之间的误差,应用梯度下降法和delta更新规则更新权值。比如SpikiProp算法。

04

ANN向SNN的转化

由于脉冲神经网络的训练算法不太成熟,一些研究者提出将传统的人工神经网络转化为脉冲神经网络,利用较为成熟的人工神经网络训练算法来训练基于人工神经网络的深度神经网络,然后通过触发频率编码将其转化为脉冲神经网络,从而避免了直接训练脉冲神经网络的困难。

4.1 CNN转化为SNN

对原始的CNN进行训练,将训练好的权值直接迁移到相似网络结构的SNN。 转换的难点在于:
  1. CNN中的某一层神经元可能会输出负值,这些负数用SNN表示会比较困难。比如,CNN中的sigmoid函数的输出范围为-1到1,每个卷积层的加权和可能也为负值,在进行颜色空间变换时某个颜色通道也可能取到负值。虽然,SNN可以采用抑制神经元来表示负值,但会成倍地增加所需要的神经元数目,提高计算的复杂度。
  2. 对于SNN,CNN中神经元的偏置很难表示。
  3. CNN中的Max-pooling层对应到SNN中,需要两层的脉冲神经网络。同样提高了SNN的复杂度。
解决方案(裁剪):
  1. 保证CNN中的每个神经元的输出值都是正数。在图像预处理层之后,卷积层之前加入abs()绝对值函数,保证卷积层的输入值都是非负的。将神经元的激活函数替换为ReLU函数。一方面可以加快原始CNN的收敛速度,另一方面ReLU函数和LIF神经元的性质比较接近,可以最小化网络转化之后的精度损失。
  2. 将CNN所有的偏置项都置为0。
  3. 采用空间线性降采样层代替Max-pooling层。
转化过程:
  1. SNN的网络结构与裁剪后的CNN相同,单纯地将CNN中的人工神经元替换为脉冲神经元。
  2. 在CNN的卷积层之前增加用于脉冲序列生成的一层网络,对输入的图像数据进行编码,转化为脉冲序列。
  3. 变换决策方式。在某一段时间内,对全连接层输出的脉冲数进行统计,取脉冲数最多的类别作为最终的分类结果。
  4. 将裁减后的CNN训练得到的权值全部迁移到对应的SNN。
最终的转化结果如图4-1所示。
fa70a2dc04c4092befb34d87a35241d4.png 图4-1
改进: 将ANN转化为SNN造成准确度下降的主要原因是转化后的SNN容易产生过激活(over-activate)和欠激活(under-activate)现象。
  1. 神经元的输入脉冲不够,导致神经元的膜电压无法超过设定的阈值,造成放电频率过低。
  2. 神经元的输入脉冲过多,导致ReLU模型在每个采样周期内输出多个脉冲。
  3. 因为脉冲序列输入是以一定的概率选择的,会导致某些特征一直处于边缘地带或占据了过多的主导地位。
因此,需要对训练得到的权值进行归一化操作。一种是基于模型的归一化操作。考虑所有可能的输入值,选择最大的可能输入值作为归一化因子,这样就保证了最大的可能输入只能产生一个脉冲。另一种是基于数据的归一化操作,输入训练集,找出最大的输入值作为归一化因子。这两种方法原理相同,前者考虑的是最坏情况,后者考虑的是一般情况。

参考文献

[1] Gerstner W, Kistler W M. Spiking neuron models: Single neurons, populations, plasticity[M]. Cambridge university press, 2002.

[2] Izhikevich E M. Simple model of spiking neurons[J]. IEEE Transactions on neural networks, 2003, 14(6): 1569-1572.

[3] Izhikevich E M. Hybrid spiking models[J]. Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences, 2010, 368(1930): 5061-5070.

[4] Heeger D. Poisson model of spike generation[J]. Handout, University of Standford, 2000, 5: 1-13.

[5] Hebb D O. The organization of behavior: A neuropsychological theory[M]. Psychology Press, 2005.

[6] Caporale N, Dan Y. Spike timing-dependent plasticity: a Hebbian learning rule[J]. Annu. Rev. Neurosci., 2008, 31: 25-46.

[7] Ponulak F, Kasinski A. Supervised learning in spiking neural networks with ReSuMe: sequence learning, classification, and spike shifting[J]. Neural Computation, 2010, 22(2): 467-510.

[8] Wade J J, McDaid L J, Santos J A, et al. SWAT: a spiking neural network training algorithm for classification problems[J]. IEEE Transactions on neural networks, 2010, 21(11): 1817-1830.

[9] Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J]. Cognitive modeling, 1988, 5(3): 1.

[10] Bohte S M, Kok J N, La Poutre H. Error-backpropagation in temporally encoded networks of spiking neurons[J]. Neurocomputing, 2002, 48(1): 17-37.

[11] Ghosh-Dastidar S, Adeli H. A new supervised learning algorithm for multiple spiking neural networks with application in epilepsy and seizure detection[J]. Neural networks, 2009, 22(10): 1419-1431.

[12] Mohemmed A, Schliebs S, Matsuda S, et al. Span: Spike pattern association neuron for learning spatio-temporal spike patterns[J]. International Journal of Neural Systems, 2012, 22(04): 1250012.

[13] Mohemmed A, Schliebs S, Matsuda S, et al. Training spiking neural networks to associate spatio-temporal input–output spike patterns[J]. Neurocomputing, 2013, 107: 3-10.

[14] Yu Q, Tang H, Tan K C, et al. Precise-spike-driven synaptic plasticity: Learning hetero-association of spatiotemporal spike patterns[J]. Plos one, 2013, 8(11): e78318.

[15] Cao Y, Chen Y, Khosla D. Spiking deep convolutional neural networks for energy-efficient object recognition[J]. International Journal of Computer Vision, 2015, 113(1): 54-66.

[16] Diehl P U, Neil D, Binas J, et al. Fast-classifying, high-accuracy spiking deep networks through weight and threshold balancing[C]//2015 International Joint Conference on Neural Networks (IJCNN). IEEE, 2015: 1-8.

[17] O’Connor P, Neil D, Liu S C, et al. Real-time classification and sensor fusion with a spiking deep belief network[J]. Neuromorphic Engineering Systems and Applications, 2015: 61.

[18] Maass W, Natschläger T, Markram H. Real-time computing without stable states: A new framework for neural computation based on perturbations[J]. Neural computation, 2002, 14(11): 2531-2560.

[19] LIN X, WANG X, ZHANG N, et al. Supervised Learning Algorithms for Spiking Neural Networks: A Review[J]. Acta Electronica Sinica, 2015, 3: 024.

[20] 顾宗华, 潘纲. 神经拟态的类脑计算研究[J]. 中国计算机学会通讯, 2015, 11(10): 10-20.

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。

9cd3cadba34003ca5eb857d40b54abe7.gif

直播预告

9cd3cadba34003ca5eb857d40b54abe7.gif 8e121a1c7825d272aaa38d516ba076e7.png

强基固本”历史文章

  • 从动力学角度看优化算法(五):为什么学习率不宜过小?

  • 伪标签(Pseudo-Labelling)——锋利的匕首

  • 基础算法:使用numpy实现逻辑回归随机梯度下降(附代码)

ab1c5b1233ae852a66cf293d761b6a0b.png ade2bfc382251b4c38b3621263bc96aa.gif

分享、点赞、在看,给个三连击呗!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/647532
推荐阅读
相关标签
  

闽ICP备14008679号