• 【机器学习】【深度学习】批量归一化(Batch Normalization)


    概念简介

    img

    归一化指的是将数据缩放到一个固定范围内,通常是 [0, 1],而标准化是使得数据符合标准正态分布。归一化的作用是使不同特征具有相同的尺度,从而使模型训练更加稳定和快速,尤其是对于使用梯度下降法的算法。而标准化的作用加快模型收敛速度,提高模型的性能。

    批量归一化用于加速神经网络的训练并提高模型的稳定性。它在每个批次的数据上进行标准化,通过对每层的输入进行归一化处理,使得网络中间层的激活值保持在一个较小的范围内,有助于加速模型的收敛,同时减少了梯度消失和爆炸的问题。所以批量归一化特别适合深层网络。

    为什么需要归一化

    img

    例如上边这个例子,右图神经网络有两个输入,分别是从3-34和从0-1000的范围。

    输入范围的巨大差异会导致在前向传播和反向传播过程中,激活函数的输出也会有很大的波动。如果激活函数是非线性的,大范围输入可能会导致梯度消失或梯度爆炸问题。

    输入范围的巨大差异也会导致损失函数在不同维度上的梯度变化不一致,使得优化算法难以有效收敛。

    对输入使用归一化可以缓解以上问题,但是在训练后期仍可能出现梯度消失或梯度爆炸问题。这时我们就需要使用批量归一化了。

    批量归一化层

    img

    批量归一化所做的是仅标准化输入,然后将数据输入到网络中,在网络中所有层的所有输出进行标准化,也就是每层之间都有批量归一化层。它所做的就是标准化数据并做一些其他的工作,然后输出给下一层。

    img

    加入批量归一化层的优点

    稳定和加速训练过程:归一化减少了不同层之间输入数据分布的变化。

    减少梯度消失和爆炸问题:保持零均值和单位方差。

    起到轻微正则化的效果:每个小批量的均值和方差略有不同,微小随机性类似于Dropout正则化。

    降低对权重初始化的敏感性:减少了调参的难度。

    适用于更深的神经网络:深度神经网络往往面临梯度消失或爆炸的问题。

  • 相关阅读:
    Redis缓存雪崩、缓存穿透、缓存击穿
    堆/二叉堆详解[C/C++]
    C++类中若没有显示指定访问权限,默认情况下类的成员变量和成员函数是私有的
    基于MVT的医学图像处理平台设计与实现
    Spring - BeanFactoryPostProcessor 扩展接口
    matrox的RAP4G4C12 CXP采集卡软件安装
    BSN六周年:迈向下一代互联网
    写点程序员离职的心得
    arthas 使用教程
    MIGraphX推理框架第八章-动态Shape
  • 原文地址:https://blog.csdn.net/qq_35516428/article/details/139277713