• 【RepVGG网络】


    RepVGG网络

    RepVGG网络是2021年由清华大学、旷视科技与香港科技大学等机构的研究者提出的一种深度学习模型结构,其核心特点是通过“结构重参数化”(re-parameterization)技术,在训练阶段采用复杂的多分支结构以优化网络的训练过程,而在推理阶段则将这些分支融合成单一的卷积层,从而实现高效的前向推断。这一特性使得RepVGG在保证模型精度的同时显著提升了计算速度和内存效率。

    RepVGG网络结构详解

    1. RepVGG Block:RepVGG模块通常包括一个3x3卷积层(带有ReLU激活函数),以及可选的1x1卷积层(用于通道变换和降维)和额外的3x3卷积层。在训练时,这些组件并行存在,形成一个多分支结构,类似于ResNet中的残差连接。但在推理时,通过特定的重参数化方法,这些分支会被合并为一个简单的3x3卷积层加上一个偏置项。
    2. 结构重参数化:该技术允许同一组参数在网络的不同阶段表现为不同的结构。具体到RepVGG中,训练时的多个卷积层会根据一定的线性关系被转换为单个卷积层,这样在不损失训练效果的前提下降低了推理时的复杂度。

    PyTorch代码实现

    虽然这里无法直接提供完整的代码实现,但可以描述其大致框架。在PyTorch中实现RepVGG时,通常会定义一个RepVGGBlock类,该类在构造函数中设置训练模式下的各个卷积层,并且包含一个fuse()方法,用于在模型部署或进行推理时将训练时的多分支结构融合为单个卷积层。

    以下是一个简化的RepVGG Block示例代码:

    import torch.nn as nn
    
    class RepVGGBlock(nn.Module):
        def __init__(self, in_channels, out_channels, kernel_size=3, stride=1, padding=1, deploy=False):
            super(RepVGGBlock, self).__init__()
            self.deploy = deploy  # 标记是否处于部署/推理阶段
    
            # 训练阶段的多个卷积层
            if not self.deploy:
                self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=padding)
                self.bn1 = nn.BatchNorm2d(out_channels)
                self.relu = nn.ReLU(inplace=True)
                # 可能存在的附加卷积层
                self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=1, stride=1, padding=0)
                self.bn2 = nn.BatchNorm2d(out_channels)
    
            # 推理阶段的融合卷积层(初始化为空)
            self.fused_conv = None
    
        def forward(self, x):
            if not self.deploy:
                x = self.conv1(x)
                x = self.bn1(x)
                x = self.relu(x)
                x = self.conv2(x) if hasattr(self, 'conv2') else x
                x = self.bn2(x) if hasattr(self, 'bn2') else x
            else:
                assert self.fused_conv is not None, "需要先调用fuse()方法将训练结构融合为推理结构!"
                x = self.fused_conv(x)
    
            return x
    
        def fuse(self):
            if self.deploy:
                return
            # 在此处执行结构重参数化操作,将多个卷积和归一化层融合为单个卷积层
            fused_kernel = ...  # 根据训练分支计算融合后的卷积核权重
            fused_bias = ...  # 计算融合后的偏置项
            self.fused_conv = nn.Conv2d(self.conv1.in_channels, self.conv2.out_channels,
                                        kernel_size=self.conv1.kernel_size, stride=self.conv1.stride,
                                        padding=self.conv1.padding, bias=True)
            with torch.no_grad():
                self.fused_conv.weight.copy_(fused_kernel)
                self.fused_conv.bias.copy_(fused_bias)
    
            # 删除训练时使用的冗余层,以便在推理时仅使用融合后的卷积层
            delattr(self, 'conv1')
            delattr(self, 'bn1')
            delattr('relu', 'inplace')
            if hasattr(self, 'conv2'):
                delattr(self, 'conv2')
                delattr(self, 'bn2')
    
            self.deploy = True
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54

    要构建整个RepVGG模型,只需按照论文中的配置堆叠多个此类RepVGGBlock,并在模型部署之前调用每个块的fuse()方法来实现结构重参数化。具体的权重融合公式和细节可以在原论文《RepVGG: Making VGG-style ConvNets Great Again》中找到。

    repvgg 二分类网络

    RepVGG网络可以用于二分类任务,其主要流程与多分类任务相似,只是在最终输出层和损失函数的选择上有所不同。以下是一个简化的示例,说明如何使用PyTorch实现基于RepVGG的二分类模型:

    # 假设已经实现了RepVGGBlock类
    from repvgg_block import RepVGGBlock
    
    class RepVGG(nn.Module):
        def __init__(self, num_blocks, in_channels, out_channels):
            super(RepVGG, self).__init__()
        
            # 定义RepVGG的多个块
            self.repvgg_layers = nn.Sequential(
                RepVGGBlock(in_channels, 64),
                *[RepVGGBlock(64, 64) for _ in range(num_blocks - 2)],
                RepVGGBlock(64, out_channels)
            )
        
            # 添加全局平均池化层和全连接层以适应二分类任务
            self.avgpool = nn.AdaptiveAvgPool2d((1, 1))
            self.fc = nn.Linear(out_channels, 2)  # 输出维度为2,对应两个类别
    
        def forward(self, x):
            x = self.repvgg_layers(x)
            x = self.avgpool(x)
            x = torch.flatten(x, 1)
            x = self.fc(x)
            return x
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    接下来,构建二分类模型并训练:

    import torch
    import torch.optim as optim
    from torch.nn import BCEWithLogitsLoss
    
    # 初始化模型
    model = RepVGG(num_blocks=4, in_channels=3, out_channels=512)
    
    # 使用二元交叉熵损失函数
    criterion = BCEWithLogitsLoss()
    
    # 数据加载器假设已准备就绪
    data_loader = ...
    
    # 优化器设置
    optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
    
    # 训练循环
    num_epochs = 100
    for epoch in range(num_epochs):
        for inputs, labels in data_loader:
            optimizer.zero_grad()
        
            # 前向传播
            outputs = model(inputs)
            # 将标签转换为二进制形式 (batch_size, 2),例如:[[0, 1], [1, 0], ...]
            binary_labels = labels.unsqueeze(1).float()
        
            # 计算损失
            loss = criterion(outputs, binary_labels)
        
            # 反向传播和优化
            loss.backward()
            optimizer.step()
      
        # 每个epoch后打印损失等信息
        print(f"Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}")
    
    # 部署阶段融合模型结构
    model.eval()
    for module in model.modules():
        if isinstance(module, RepVGGBlock):
            module.fuse()
    
    # 测试或预测时,模型将直接输出每类的概率值,可通过argmax获取预测类别
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 在二分类任务中,通常选择Sigmoid激活函数配合二元交叉熵损失函数(BCEWithLogitsLoss),或者直接在最后一层使用带有Sigmoid激活函数的线性层;
  • 相关阅读:
    C++ Reference: Standard C++ Library reference: C Library: cwchar: mbrtowc
    【C语言】32个关键字
    Qt | QFile 类(文件)
    Go For Web:踏入Web大门的第一步——Web 的工作方式
    数据结构入门——排序(代码实现)(下)
    解决https页面加载http资源报错
    uni-app--》基于小程序开发的电商平台项目实战(一)
    初识Docker
    C语言中的文件操作
    AVUE 富文本编辑器 avue-plugin-ueditor 图片上传 ver.0.2.7
  • 原文地址:https://blog.csdn.net/zhiqingAI/article/details/136665809