赞
踩
SiLU 函数是一种神经网络中的激活函数,全称是 Sigmoid Gated Linear Unit(Sigmoid门控线性单元), 也被称为 Swish 函数。它由 Google Brain 在 2017 年提出,是一种非线性激活函数,能够有效地对神经网络的输入进行非线性变换。
f ( x ) = x ∗ σ ( x ) f(x) = x * \sigma (x) f(x)=x∗σ(x)
其中: σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1+e^{-x}} σ(x)=1+e−x1
SiLU 函数的特点如下:
m = nn.SiLU()
input = torch.randn(2)
output = m(input)
参考文献:
Prajit Ramachandran, Barret Zoph, and Quoc V Le. Searching for activation functions. arXiv preprint
arXiv:1710.05941, 2017.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。