当前位置:   article > 正文

深度学习 BN 、LeakyReLU算法原理_bn.leakyrelu

bn.leakyrelu

BN和LeakyReLU

def DarknetConv2D_BN_Leaky(*args, **kwargs):
    # 归一化
    # DarkNet中用到的卷积块,卷积块中包含了归一化和激活函数
    """Darknet Convolution2D followed by BatchNormalization and LeakyReLU."""
    no_bias_kwargs = {
   'use_bias': False}
    no_bias_kwargs.update(kwargs)
    return compose(
        DarknetConv2D(*args, **no_bias_kwargs),
        BatchNormalization(),
        LeakyReLU(alpha=0.1))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

yolov3中DarkNet网络的这段代码为例,细说网络中的具体结构
该卷积块中包含三个内容:二维卷积操作(DarknetConv2D)、归一化(BatchNormalization)、非线性激活函数(LeakyReLU)。

  • 背景(为什么会提出这种方法)
  • 原理(理解的基础上说明大概步骤)
  • 举例(简单介绍主流的方法)

就以上三个方面对BN的理解

1、BN算法产生的背景

https://blog.csdn.net/qq_37100442/article/details/81776191

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/748728
推荐阅读
相关标签
  

闽ICP备14008679号