当前位置:   article > 正文

李沐动手学习深度学习——4.1练习

李沐动手学习深度学习——4.1练习

1. 计算pReLU激活函数的导数。

pReLU激活函数公式根据课本有如下:
p R e L U ( x ) = max ⁡ ( 0 , x ) + α min ⁡ ( 0 , x ) \mathrm{pReLU}(x) =\max(0, x)+\alpha \min(0,x) pReLU(x)=max(0,x)+αmin(0,x)
对应的函数图像为:
在这里插入图片描述
对应的导数计算为:
d p R e L U d x = { 1 , x ≥ 1 α , x < 1 \frac{\mathrm{d} \mathrm{pReLU}}{\mathrm{d} x} =\left \{

1,x1α,x<1
\right. dxdpReLU={1,α,x1x<1
对应的梯度图像如下:
在这里插入图片描述

2. 证明一个仅使用ReLU(或pReLU)的多层感知机构造了一个连续的分段线性函数

  1. 单个ReLU构成的多层感知机是分段线性函数
  2. 同层多个组合ReLU构成的多层感知机同样是分段线性函数
  3. 多层多个组合ReLU函数构成的多层感知机,具有多个维度,同样也是分段函数
    叠加两层的ReLU函数如图下,以此类推。
    在这里插入图片描述

3. 证明

t a n h ( x ) + 1 = 1 − exp ⁡ ( − 2 x ) 1 + exp ⁡ ( − 2 x ) + 1 = 2 1 + exp ⁡ ( − 2 x ) = 2 s i g m o d ( 2 x )

tanh(x)+1=1exp(2x)1+exp(2x)+1=21+exp(2x)=2sigmod(2x)
tanh(x)+1=1+exp(2x)1exp(2x)+1=1+exp(2x)2=2sigmod(2x)

4. 假设我们有一个非线性单元,将它一次应用于一个小批量的数据。这会导致什么样的问题?

数据量不够,拟合效果会比线性单元更差,梯度估计不稳定。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/198384
推荐阅读
相关标签
  

闽ICP备14008679号