• pytorch中的归一化函数


    PyTorchnn 模块中,有一些常见的归一化函数,用于在深度学习模型中进行数据的标准化和归一化。以下是一些常见的归一化函数:

    1. nn.BatchNorm1d, nn.BatchNorm2d, nn.BatchNorm3d
      这些函数用于批量归一化 (Batch Normalization) 操作。它们可以应用于一维、二维和三维数据,通常用于卷积神经网络中。批量归一化有助于加速训练过程,提高模型的稳定性。

    2. nn.LayerNorm
      Layer Normalization 是一种归一化方法,通常用于自然语言处理任务中。它对每个样本的每个特征进行归一化,而不是对整个批次进行归一化。nn.LayerNorm可用于一维数据。

    3. nn.InstanceNorm1d, nn.InstanceNorm2d, nn.InstanceNorm3d
      Instance Normalization 也是一种归一化方法,通常用于图像处理任务中。它对每个样本的每个通道进行归一化,而不是对整个批次进行归一化。这些函数分别适用于一维、二维和三维数据。

    4. nn.GroupNorm
      Group Normalization 是一种介于批量归一化和 Instance Normalization 之间的方法。它将通道分成多个组,然后对每个组进行归一化。这个函数可以用于一维、二维和三维数据。

    5. nn.SyncBatchNorm
      SyncBatchNorm 是一种用于分布式训练的归一化方法,它扩展了 Batch Normalization 并支持多 GPU 训练。

    这些归一化函数可以根据具体的任务和模型选择使用,以帮助模型更快地收敛,提高训练稳定性,并改善模型的泛化性能。选择哪种归一化方法通常取决于数据的特点和任务的需求。在使用时,可以在 PyTorch 的模型定义中包含这些归一化层,以将它们集成到模型中。

    1.归一化函数的函数构成

    PyTorch中的归一化函数都是通过nn模块中的不同类来实现的。这些类都是继承自PyTorch的nn.Module类,它们具有共同的构造函数和一些通用的方法,同时也包括了归一化特定的计算。以下是这些归一化函数的一般函数构成:

    (1)nn.BatchNorm1d, nn.BatchNorm2d, nn.BatchNorm3d

    构造函数:

    nn.BatchNorm*d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
    
    • 1
    • *:1,2,3
    • num_features:输入数据的通道数或特征数。
    • eps:防止除以零的小值。
    • momentum:用于计算运行时统计信息的动量。
    • affine:一个布尔值,表示是否应用仿射变换。
    • track_running_stats:一个布尔值,表示是否跟踪运行时的统计信息。

    (2)nn.LayerNorm

    构造函数:

    nn.LayerNorm(normalized_shape, eps=1e-05, elementwise_affine=True)
    
    • 1
    • normalized_shape:输入数据的形状,通常是一个整数或元组。
    • eps:防止除以零的小值。
    • elementwise_affine:一个布尔值,表示是否应用元素级别的仿射变换。

    (3)nn.InstanceNorm1d, nn.InstanceNorm2d, nn.InstanceNorm3d

    构造函数:

    nn.InstanceNorm*d(num_features, eps=1e-05, affine=False, track_running_stats=False)
    
    • 1
    • *:1,2,3
    • num_features:输入数据的通道数或特征数。
    • eps:防止除以零的小值。
    • affine:一个布尔值,表示是否应用仿射变换。
    • track_running_stats:一个布尔值,表示是否跟踪运行时的统计信息。

    (4) nn.GroupNorm

    构造函数:

    nn.GroupNorm(num_groups, num_channels, eps=1e-05, affine=True)
    
    • 1
    • num_groups:将通道分成的组数。
    • num_channels:输入数据的通道数。
    • eps:防止除以零的小值。
    • affine:一个布尔值,表示是否应用仿射变换。

    (5)nn.SyncBatchNorm

    • 这个归一化函数通常在分布式训练中使用,它与nn.BatchNorm*d具有相似的构造函数,但还支持分布式计算。

    这些归一化函数的构造函数参数可能会有所不同,但它们都提供了一种方便的方式来创建不同类型的归一化层,以用于深度学习模型中。一旦创建了这些层,您可以将它们添加到模型中,然后通过前向传播计算归一化的输出。

    2.归一化函数的用法

    这些函数都是 PyTorch 中用于规范化(Normalization)的函数,它们用于在深度学习中处理输入数据以提高训练稳定性和模型性能。

    (1)nn.BatchNorm1d, nn.BatchNorm2d, nn.BatchNorm3d

    这是批标准化(Batch Normalization)的函数,用于规范化输入数据。它在训练深度神经网络时有助于加速收敛,提高稳定性。

    import torch
    import torch.nn as nn
    
    # 以二维输入为例(2D图像数据)
    input_data = torch.randn(4, 3, 32, 32)  # 假设有4个样本,每个样本是3通道的32x32图像
    
    # 创建 Batch Normalization 层
    batch_norm = nn.BatchNorm2d(3)
    
    # 对输入数据进行规范化
    output = batch_norm(input_data)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    (2)nn.LayerNorm

    层标准化(Layer Normalization)通常用于自然语言处理(NLP)中,用于规范化神经网络中的层级数据。

    import torch
    import torch.nn as nn
    
    # 以二维输入为例
    input_data = torch.randn(4, 3)  # 假设有4个样本,每个样本有3个特征
    
    # 创建 Layer Normalization 层
    layer_norm = nn.LayerNorm(3)
    
    # 对输入数据进行规范化
    output = layer_norm(input_data)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    (3)nn.InstanceNorm1d, nn.InstanceNorm2d, nn.InstanceNorm3d

    实例标准化(Instance Normalization)通常用于风格迁移等任务,逐样本规范化数据。

    import torch
    import torch.nn as nn
    
    # 以二维输入为例
    input_data = torch.randn(4, 3, 32, 32)  # 假设有4个样本,每个样本是3通道的32x32图像
    
    # 创建 Instance Normalization 层
    instance_norm = nn.InstanceNorm2d(3)
    
    # 对输入数据进行规范化
    output = instance_norm(input_data)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    (4)nn.GroupNorm

    分组标准化(Group Normalization)是一种替代 Batch Normalization 的规范化方法,它将通道分成多个组,并在每个组内进行规范化。

    import torch
    import torch.nn as nn
    
    # 以二维输入为例
    input_data = torch.randn(4, 6, 32, 32)  # 假设有4个样本,每个样本有6个通道的32x32图像
    
    # 创建 Group Normalization 层
    group_norm = nn.GroupNorm(3, 6)
    
    # 对输入数据进行规范化
    output = group_norm(input_data)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    (5)nn.SyncBatchNorm

    同步批标准化(SyncBatchNorm)是一种多 GPU 训练时用于保持 Batch Normalization 的统计一致性的方法。

    import torch
    import torch.nn as nn
    
    # 以二维输入为例
    input_data = torch.randn(4, 3, 32, 32)  # 假设有4个样本,每个样本是3通道的32x32图像
    
    # 创建 SyncBatchNorm 层
    sync_batch_norm = nn.SyncBatchNorm(3)
    
    # 对输入数据进行规范化
    output = sync_batch_norm(input_data)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    这些规范化方法可以在神经网络中用于处理不同类型的数据和任务,以提高训练和收敛的稳定性。我们可以根据具体任务和模型需求选择合适的规范化方法。

    3.归一化函数在神经网络中的应用示例

    当使用 PyTorch 中的不同归一化函数时,您通常会首先创建一个归一化层实例,然后将其添加到您的神经网络模型中。以下是一些不同类型的归一化函数的示例用法:

    (1)Batch Normalization (nn.BatchNorm1d, nn.BatchNorm2d, nn.BatchNorm3d)

    Batch Normalization 用于对输入数据进行批量归一化。以下是一个示例,演示如何在一个卷积神经网络中使用 Batch Normalization:

    import torch
    import torch.nn as nn
    
    # 定义一个简单的卷积神经网络
    class CNNWithBatchNorm(nn.Module):
        def __init__(self):
            super(CNNWithBatchNorm, self).__init__()
            self.conv1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)
            self.bn1 = nn.BatchNorm2d(64)
            self.relu = nn.ReLU()
            self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
            self.fc = nn.Linear(64 * 16 * 16, 10)
    
        def forward(self, x):
            x = self.conv1(x)
            x = self.bn1(x)
            x = self.relu(x)
            x = self.pool(x)
            x = x.view(-1, 64 * 16 * 16)
            x = self.fc(x)
            return x
    
    # 创建模型实例
    model = CNNWithBatchNorm()
    
    # 将模型添加到优化器等代码中进行训练
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26

    (2) Layer Normalization (nn.LayerNorm)

    Layer Normalization 通常用于自然语言处理任务。以下是一个示例,演示如何在一个循环神经网络中使用 Layer Normalization:

    import torch
    import torch.nn as nn
    
    # 定义一个简单的循环神经网络
    class RNNWithLayerNorm(nn.Module):
        def __init__(self, input_size, hidden_size):
            super(RNNWithLayerNorm, self).__init__()
            self.rnn = nn.LSTM(input_size, hidden_size, num_layers=2)
            self.ln = nn.LayerNorm(hidden_size)
            self.fc = nn.Linear(hidden_size, 10)
    
        def forward(self, x):
            x, _ = self.rnn(x)
            x = self.ln(x)
            x = self.fc(x[-1])  # 取最后一个时间步的输出
            return x
    
    # 创建模型实例
    model = RNNWithLayerNorm(input_size=100, hidden_size=128)
    
    # 将模型添加到优化器等代码中进行训练
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    (3)Instance Normalization (nn.InstanceNorm1d, nn.InstanceNorm2d, nn.InstanceNorm3d)

    Instance Normalization 通常用于图像处理任务。以下是一个示例,演示如何在一个卷积神经网络中使用 Instance Normalization:

    import torch
    import torch.nn as nn
    
    # 定义一个简单的卷积神经网络
    class CNNWithInstanceNorm(nn.Module):
        def __init__(self):
            super(CNNWithInstanceNorm, self).__init__()
            self.conv1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)
            self.in1 = nn.InstanceNorm2d(64)
            self.relu = nn.ReLU()
            self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
            self.fc = nn.Linear(64 * 16 * 16, 10)
    
        def forward(self, x):
            x = self.conv1(x)
            x = self.in1(x)
            x = self.relu(x)
            x = self.pool(x)
            x = x.view(-1, 64 * 16 * 16)
            x = self.fc(x)
            return x
    
    # 创建模型实例
    model = CNNWithInstanceNorm()
    
    # 将模型添加到优化器等代码中进行训练
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26

    nn.SyncBatchNorm。nn.SyncBatchNorm是在多GPU分布式训练环境中使用的同步批标准化方法,用于确保不同GPU上的批标准化参数保持同步,不再举例。

    这些示例演示了如何在不同类型的神经网络中使用不同的归一化函数,具体用法可以根据任务和模型的需求进行调整。不同的归一化函数适用于不同的场景,可帮助加速训练过程,提高模型的稳定性,并改善模型的泛化性能。

  • 相关阅读:
    爬虫实现自己的翻译服务器
    Texlive2020 for win10 宏包更新
    Orchestrator 对 MGR MySQL Group Replication的支持
    msvc++中的预编译头文件pch.hpp和stdafx.h
    人工智能知识全面讲解:梯度下降法
    echarts-设置主题+调色盘+尺寸自适应+增量动画、等待动画
    【CAS:1339202-33-3 |Diazo Biotin-PEG3-azide】生物素标记试剂
    idea本地运行正常,打包部署以后openFeign调用失败,返回为null,以及报错406
    Unity ECS最新DOTS环境搭建教程
    【Leetcode刷题Python】高效求递归中函数的调用次数(动态规划方法,顺丰笔试题)
  • 原文地址:https://blog.csdn.net/thy0000/article/details/133681242