赞
踩
这篇博文总结一下损失函数,这里重点总结一下常用的损失函数。
损失函数有很多,不得不说有很多人已经专门对比过了,比如ArXiv上面的这篇就很不错:
(https://arxiv.org/pdf/1702.05659.pdf)
(http://christopher5106.github.io/deep/learning/2016/09/16/about-loss-functions-multinomial-logistic-logarithm-cross-entropy-square-errors-euclidian-absolute-frobenius-hinge.html)
softmax 交叉熵损失函数是我们常用的一种损失函数,其公式如下:
t
和
y
分别表示神经网络的目标标签和输出,
需要注意的一点就是这个公式需要输入没有经过缩放变换的logits,还有就是使用本目标损失函数的时候不要在网络的最后一层使用
softmax
层或者激活函数,会导致结果不正确。
交叉熵损失函数是也是常用的一种损失函数,它表示预测值y
与目标值t
之间的距离。主要应用在互相排斥的分类任务中,公式为:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。