当前位置:   article > 正文

修正线性单元(Rectified linear unit,ReLU)

线性修正单元

修正线性单元(Rectified linear unit,ReLU)


Rectified linear unit

神经网络中,常用到的激活函数有sigmoid函数、双曲正切函数,今天要说的是另外一种activation function,rectified linear function,

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/144919
推荐阅读
相关标签
  

闽ICP备14008679号