赞
踩
激活函数的主要功能是为神经网络非线性能力 ,去掉激活函数层,神经网络仅剩下线性函数,多层线性函数的拟合还是线性的,无法更好的建模生活中的大多数非线性问题。
线性激活函数(不是重点)
非线性激活函数(sigmod,tanh,relu,lrelu,Prelu,swish)
考量:
公式
f ( x ) = 1 1 + e − x f ′ ( x ) = f ( x ) ∗ ( 1 − f ( x ) ) f(x) = \frac{1}{1+e^{-x}} \\ f^{'}(x) = f(x)*(1-f(x)) f(x)=1+e−x1f′(x)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。