搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
小蓝xlanll
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
基于对抗互信息学习特征解耦的零样本语音转换|INTERSPEECH 2022_对抗性的去除内容信息中的音色信息
2
mot数据集_基于MATLAB的MOT官方评估工具
3
远程配置交换机,Telnet和SSH两种配置操作_tp交换机配置ssh
4
云服务器安装宝塔详细教程
5
golang常用库之-文件操作(os、path、filepath、ioutil包)、Go 读文件、Go 写文件_golang filepath
6
hosts.allow限制可通过SSH登录到服务器的IP
7
Python-浅/深拷贝问题:关于for循环中将字典添加到列表中出现字典值全部重复的问题_python dict list追加值全部都相同
8
ssh出现connection timeout
9
一次Dot1x认证/EAP认证/RADIUS交互-报文解析_dot1x 客户端
10
QT实现Webdav的HTTPS通信_webdav qt
当前位置:
article
> 正文
relu函数的优缺点_relu缺点
作者:小蓝xlanll | 2024-02-27 23:49:33
赞
踩
relu缺点
优点:
SGD算法的收敛速度比 sigmoid 和 tanh 快;(梯度不会饱和,解决了梯度消失问题)
计算复杂度低,不需要进行指数运算;
适合用于后向传播。
缺点:
ReLU的输出不是zero-centered;
ReLU在训练的时候很”脆弱”,一不小心有可能导致神经元”坏死”。举个例子:由于ReLU在x<0时梯度为0,这样就导致负的梯度在这个ReLU被置零,而且这个神经元有可能再也不会被任何数据激活。如果这个情况发生了,那么这个神经元之后的梯度就永远是0了,也就是ReLU神经元坏死了,不再对任何数据有所响应。实际操作中,如果你的learning rate 很大,那么很有可能你网络中的40%的神经元都坏死了。 当然,如果你设置了一个合适的较小的learning rate,这个问题发生的情况其实也不会太频繁。,Dead ReLU Problem(神经元坏死现象):某些神经元可能永远不会被激活,导致相应参数永远不会被更新(在负数部分,梯度为0)。产生这种现象的两个原因:参数初始化问题;learning rate太高导致在训练过程中参数更新太大。 解决方法:采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法。
ReLU不会对数据做幅度压缩,所以数据的幅度会随着模型层数的增加不断扩张。
本文内容由网友自发贡献,转载请注明出处:
【wpsshop博客】
推荐阅读
article
深度学习—激活函数详解(
Sigmoid
、
tanh
、
ReLU
、
ReLU
6及变体P-R-
Leaky
、EL...
非线性激活函数详解饱和激活函数
Sigmoid
函数
tanh
函数非饱和激活函数Relu(修正线性单元):ELU(指数线性单元...
赞
踩
article
激活函数--Sigmoid,tanh,
RELU
,
RELU
6,Mish,Leaky
ReLU
等_rel...
激活函数目前自己使用比较多的激活函数
RELU
,
RELU
6; Leaky
ReLU
; SELU; Mish;激活函数看:计...
赞
踩
article
海思开发:
relu
、
relu
6
在
量化
前后
的
精度
变化及原因思考_
relu
6
函数
与
relu
的
区别...
一、前言以前部署 HopeNet
的
时候,发现了
relu
6
与
relu
的
差异。具体就是
relu
模型
量化
后
精度
下降 14...
赞
踩
article
修正
线性单元(
Rectified
linear
unit
,
ReLU
)...
修正
线性单元(
Rectified
linear
unit
,
ReLU
)
Rectified
linear
unit
在神经网络...
赞
踩
article
【
ReLU
】
Rectified
Linear
Units, 线性修正单元
激活
函数
_
relu
用在lin...
在神经网络中,常用到的
激活
函数
有sigmoid
函数
、双曲正切
函数
,而本文要介绍的是另外一种
激活
函数
,
Rectified
...
赞
踩
article
leaky
_
relu
_
leaky
relu
...
与传统的
relu
函数不同,
leaky
_
relu
允许负数输入有一个小的斜率,而不是完全截断为0。在PyTorch中,可以使...
赞
踩
相关标签
非线性激活函数
ReLU及其变体
Maxout
Sigmoid
P-ReLU
深度学习
激活函数
mish
relu
sigmoid
量化误差探讨
人工智能
ReLU
神经网络