当前位置:   article > 正文

激活函数整理_leaky_relu_forward函数

leaky_relu_forward函数

激活函数整理

先写几个常用的,以后抽时间整理一下吧

Relu

[0,∞)
pass

leakyRelu

(lim->0 , ∞)
pass

Relu6

[0,6]
pass

Sigmoid

(0,1)

f ( x ) = 1 1 + e − x . f(x) = \frac{1}{1+e^{-x}}. f(x)=1+ex1.
在这里插入图片描述
pass

自己实现:

pass

调用torch官网:


def showAF(x):
    y0=relu = F.relu(x)
    y1=leakyRelu=F.leaky_relu(x)
    y2=sigmoid=torch.sigmoid(x)
    y3=relu6 = torch.nn.ReLU6(x)
    
    plt.title('activationFunctions')
    plt.plot(x, y0, color='red', label='Relu')
    plt.plot(x, y1, '--',color='blue', label='LeakyRelu')
    plt.plot(x, y2, '-.', color='green', label='Sigmoid')
    plt.plot(x, y3, color='pink', label='ReLU6')
    plt.legend()
    plt.grid(True,linestyle='--',alpha=0.8)

    plt.xlabel('x')
    plt.ylabel('y')
    plt.show()
x=torch.linspace(-10,10,100)
showAF(x)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/156620
推荐阅读
相关标签
  

闽ICP备14008679号