搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
小蓝xlanll
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
CSS 颜色代码_css浅蓝色
2
shardingsphere 集成springboot【水平分表】
3
Android WebView调用系统相册和相机,注入以及与H5的交互_webview 增加打开相机相册交互
4
有关windows10修改C盘用户中文名文件夹相关问题的具体解决方案_win10修改c盘下用户的文件夹名会出问题吗
5
关于UE4打包问题_编译模式_实例1_ue4打包后效果不一样
6
uniapp+vue微信小程序的 健身房预约系统_uniapp 热量数据
7
OpenSSL/GMSSL EVP接口说明——3.5 加密解密_evp_pkey_ctx_set_ec_sign_type( pkctx, nid_sm_schem
8
2023最新玩客云刷机armbian,部署docker并配置各种常用容器镜像_玩客云 armbian
9
Unity接入Steam平台详细流程一_steammanager获取名字
10
十五、进程&线程&协程_pool.map 怎么等待主线程执行完
当前位置:
article
> 正文
relu函数的优缺点_relu缺点
作者:小蓝xlanll | 2024-02-27 23:49:33
赞
踩
relu缺点
优点:
SGD算法的收敛速度比 sigmoid 和 tanh 快;(梯度不会饱和,解决了梯度消失问题)
计算复杂度低,不需要进行指数运算;
适合用于后向传播。
缺点:
ReLU的输出不是zero-centered;
ReLU在训练的时候很”脆弱”,一不小心有可能导致神经元”坏死”。举个例子:由于ReLU在x<0时梯度为0,这样就导致负的梯度在这个ReLU被置零,而且这个神经元有可能再也不会被任何数据激活。如果这个情况发生了,那么这个神经元之后的梯度就永远是0了,也就是ReLU神经元坏死了,不再对任何数据有所响应。实际操作中,如果你的learning rate 很大,那么很有可能你网络中的40%的神经元都坏死了。 当然,如果你设置了一个合适的较小的learning rate,这个问题发生的情况其实也不会太频繁。,Dead ReLU Problem(神经元坏死现象):某些神经元可能永远不会被激活,导致相应参数永远不会被更新(在负数部分,梯度为0)。产生这种现象的两个原因:参数初始化问题;learning rate太高导致在训练过程中参数更新太大。 解决方法:采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法。
ReLU不会对数据做幅度压缩,所以数据的幅度会随着模型层数的增加不断扩张。
声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
【wpsshop博客】
推荐阅读
article
深度学习—激活函数详解(
Sigmoid
、
tanh
、
ReLU
、
ReLU
6及变体P-R-
Leaky
、EL...
非线性激活函数详解饱和激活函数
Sigmoid
函数
tanh
函数非饱和激活函数Relu(修正线性单元):ELU(指数线性单元...
赞
踩
article
激活函数--Sigmoid,tanh,
RELU
,
RELU
6,Mish,Leaky
ReLU
等_rel...
激活函数目前自己使用比较多的激活函数
RELU
,
RELU
6; Leaky
ReLU
; SELU; Mish;激活函数看:计...
赞
踩
article
海思开发:
relu
、
relu
6
在
量化
前后
的
精度
变化及原因思考_
relu
6
函数
与
relu
的
区别...
一、前言以前部署 HopeNet
的
时候,发现了
relu
6
与
relu
的
差异。具体就是
relu
模型
量化
后
精度
下降 14...
赞
踩
article
修正
线性单元(
Rectified
linear
unit
,
ReLU
)...
修正
线性单元(
Rectified
linear
unit
,
ReLU
)
Rectified
linear
unit
在神经网络...
赞
踩
article
【
ReLU
】
Rectified
Linear
Units, 线性修正单元
激活
函数
_
relu
用在lin...
在神经网络中,常用到的
激活
函数
有sigmoid
函数
、双曲正切
函数
,而本文要介绍的是另外一种
激活
函数
,
Rectified
...
赞
踩
article
leaky
_
relu
_
leaky
relu
...
与传统的
relu
函数不同,
leaky
_
relu
允许负数输入有一个小的斜率,而不是完全截断为0。在PyTorch中,可以使...
赞
踩
相关标签
非线性激活函数
ReLU及其变体
Maxout
Sigmoid
P-ReLU
深度学习
激活函数
mish
relu
sigmoid
量化误差探讨
人工智能
ReLU
神经网络