赞
踩
W i j ( l ) W_{ij}^{(l)} Wij(l):表示
第 l-1 层的第 j 个激活特征
到第 l 层第 i 个神经元
的权值b i j ( l ) b_{ij}^{(l)} bij(l):表示
第 l-1 层的第 j 个激活特征
到第 l 层第 i 个神经元
的偏置(其中 j j j 恒为 0,表示偏置项;第 0 个特征 a 0 ( l ) a_0^{(l)} a0(l) 恒为 1,表示其只作为其它神经元的偏置,本身并不需要计算)Note:输入层算作
第 0 层
、j 代表第 l-1 层的激活特征的下标
( j ∈ [ 1 , n l − 1 ] j \in [1, n^{l-1}] j∈[1,nl−1]) 、i 代表第 l 层的神经元的下标
( i ∈ [ 1 , n l ] i \in [1, n^{l}] i∈[1,nl])
维度从下到上排列
)前向
计算每一层的 状态值(作为整体,用于求导后带入导数公式)和激活值
,且保存每一层的 权重值
计算输出层的误差项
(因为输出层没有
δ
l
+
1
\delta^{l+1}
δl+1 可用)反向
传播计算每一层的误差
偏导数
,并按下面的公式更新参数
Learning to Prompt for Vision-Language Models
1、https://xpqiu.github.io/slides/20151226_CCFADL_NNDL.pdf
2、卷积神经网络(CNN)反向传播算法
3、Convolutional Neural Networks backpropagation: from intuition to derivation
4、Backpropagation In Convolutional Neural Networks
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。