赞
踩
y
=
w
⋅
x
+
b
=
∑
i
=
1
n
w
i
x
i
+
b
y = \mathbf{w} \cdot \mathbf{x} + b = \sum_{i=1}^n w_i x_i + b
y=w⋅x+b=i=1∑nwixi+b
引入非线性激活函数,如Sigmoid、Tanh、ReLU、ELU、PReLU或者Leak ReLU,以允许网络学习更复杂的模式。
应用现代神经网络的普遍使用。
但是线性神经元 通常用作描述线性回归模型,可以使用不同的优化算法。ADALINE 明确采用梯度下降法,并且其主要创新在于使用均方误差作为损失函数来调整权重。
模型的微分方程为:
d v d t = 0.04 v 2 + 5 v + 140 − u + I \frac{dv}{dt} = 0.04v^2 + 5v + 140 - u + I dtdv=0.04v2+5v+140−u+I
d u d t = a ( b v − u ) \frac{du}{dt} = a(bv - u) dtdu=a(bv−u)
其中,
I
I
I 是外部输入电流,
a
a
a、
b
b
b、
c
c
c 和
d
d
d 是模型参数,用于调整神经元的放电特性。放电后的重置条件为:
当
v
≥
30
v\geq 30
v≥30 mV 时:
v
←
c
v \leftarrow c
v←c
u
←
u
+
d
u \leftarrow u + d
u←u+d
Boltzmann 神经元是一种在 Boltzmann 机(Boltzmann Machine)中使用的神经元模型。Boltzmann 神经元是二值的,即其状态只能是 0 或 1。它们通过概率性规则来更新状态,这些规则依赖于其他神经元的状态和连接权重。Boltzmann 神经元的状态更新遵循以下概率性规则:
该概率通常使用 logistic 函数来表示:
P ( s i = 1 ) = 1 1 + exp ( − E i ) P(s_i = 1) = \frac{1}{1 + \exp(-E_i)} P(si=1)=1+exp(−Ei)1
其中 E i E_i Ei 是神经元 i i i 的输入信号,总和来自其他神经元的输入加上偏置项:
E i = ∑ j w i j s j + b i E_i = \sum_{j} w_{ij} s_j + b_i Ei=j∑wijsj+bi
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。