当前位置:   article > 正文

CMU 10-414/714: Deep Learning Systems --hw0

CMU 10-414/714: Deep Learning Systems --hw0

hw0

宏观上的步骤:
在这里插入图片描述

  1. softmax loss: 实现softmax loss代码
    • 概念
      • softmax就是将结果映射到0~1之间,且所有结果相加为1(概率形式)
      • cross-entropy loss就是计算 p ( x ) log ⁡ q ( x ) p(x)\log {q(x)} p(x)logq(x),此值可用于衡量实际输出与期望输出的距离,进而衡量预测模型与真实模型之间的差距,值越大说明越不准确。(p(x)为真实值,通常为0或1;q(x)为推算概率,在0~1之间)
      • Needle中的softmax loss更简单一些,就是计算 − log ⁡ p (  label  = y ) -\log p(\text { label }=y) logp( label =y),即在输出中,让正确类别的概率值取负log
    • 公式:
      • softmax:
        softmax ⁡ ( y i ) = y i ′ = e y i ∑ j = 1 n e y i , ∑ j = 1 n y i ′ = 1 \operatorname{softmax}\left(\mathrm{y}_i\right)=\mathrm{y}_i^{\prime}=\frac{e^{\mathrm{y}_i}}{\sum_{j=1}^n e^{\mathrm{y}_i}},\sum_{j=1}^n \mathrm{y}_i^{\prime}=1 softmax(yi)=yi=j=1neyieyi,j=1nyi=1
        其中,神经网络的原始输出为 y 1 , y 2 , . . . , y n
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/220669
推荐阅读
相关标签
  

闽ICP备14008679号