当前位置:   article > 正文

深度学习的数学原理_生成式深度学习的数学原理.pdf

生成式深度学习的数学原理.pdf

在网络中,假定输入为X,输出为Y,其网络结构的参数为W和b,每次训练的损失函数为L(w,b),Cost函数J(w,b)

则:Y= W*X+b

也就是W和b与网络模型的好坏的直接相关;同时训练就是训练的W和b参数让J最小

 

参数修正

TF图:

在tf中存在计算图的前向传导和BP(后向传导)修正参数,假定计算:F(a,b,c) =  3(a+bc)

d代表计算梯度,则:


由上图知:计算图是从前向后计算,而计算梯度则是从后向前计算(故叫BP)。


损失函数及其代价函数:





声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/311965
推荐阅读
相关标签
  

闽ICP备14008679号