10.2 常见的Normalization方法(BN、LN、IN、GN)

    科技2025-10-17  13

    一、为什么要Normalization?

    二、常见的Normalization方法(BN、LN、IN、GN)

     

     

     

    这节课我们来学习常见的Normalization方法(BN、LN、IN、GN)。

    一、为什么要Normalization?

    其实这个问题在BN的论文中已经给了答案了,就是因为在深度学习中,出现一个ICS的问题。数据尺度/分布的异常,导致模型训练困难。

     

    二、常见的Normalization方法(BN、LN、IN、GN)

    这四种Normalization,相同的地方是,都要进行归一化,即加减乘除操作。那他们的不同点在哪里?因为beta和gamma都是超参数,所以不同的地方在于均值和方差的求取方式。

    LN : 是在网络层里面找均值和方差。

    IN:实例,就是一张图片。主要针对图像生成使用。

    GN:分组。

     

    1. Layer Normalization

    BN不适用于变长的网络,比如RNN。比如右边的图。

     

    2. Instance Normalization

     

    3. Group Normalization

     

     

     

     

     

     

     

     

     

     

     

     

    Processed: 0.012, SQL: 8