当前位置:   article > 正文

Relu简介

relu

Relu

Relu(Linear rectification function)是深度学习中的一种激活函数

其函数表达式为:f(x)=max(0,x)

其函数图像为:

该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像矩阵的值有正有负,这难免造成了数据规模变得很大,那么经过Relu函数之后的图像矩阵中的值只留下正数的值。

优点:

1.极大地减少了数据量

2.在一定程度上减少了运算量

3.避免层数增加。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/75125
推荐阅读
相关标签
  

闽ICP备14008679号