赞
踩
ReLU6:
首先说明一下ReLU6,卷积之后通常会接一个ReLU非线性激活,在Mobile net v1里面使用ReLU6,ReLU6就是普通的ReLU但是限制最大输出值为6,这是为了在移动端设备float16的低精度的时候,也能有很好的数值分辨率,如果对ReLU的激活范围不加限制,输出范围为0到正无穷,如果激活值非常大,分布在一个很大的范围内,则低精度的float16无法很好地精确描述如此大范围的数值,带来精度损失。
keras实现relu6
x = layers.ReLU(6., name='Conv1_relu')(x)
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。