• VGG16 实现图像分类的 pytorch 实现、步骤精讲


    VGG16 实现图像分类

    这里我们来实现一个对 CIFAR 数据集进行分类的 VGG-16 的网络

    VGG16 网络介绍

    前言

    《Very Deep Convolutional Networks for Large-Scale Image Recognition》

    ICLR 2015

    VGG是Oxford的VisualGeometryGroup的组提出的(大家应该能看出VGG名字的由来了)。该网络是在ILSVRC 2014上的相关工作,主要工作是证明了增加网络的深度能够在一定程度上影响网络最终的性能。VGG有两种结构,分别是VGG16和VGG19,两者并没有本质上的区别,只是网络深度不一样。

    VGG原理

    VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。

    简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果。

    比如,3个步长为1的3x3卷积核的一层层叠加作用可看成一个大小为7的感受野(其实就表示3个3x3连续卷积相当于一个7x7卷积),其参数总量为 3x(9xC^2) ,如果直接使用7x7卷积核,其参数总量为 49xC^2 ,这里 C 指的是输入和输出的通道数。很明显,27xC2小于49xC2,即减少了参数;而且3x3卷积核有利于更好地保持图像性质。

    这里解释一下为什么使用2个3x3卷积核可以来代替5*5卷积核:

    5x5卷积看做一个小的全连接网络在5x5区域滑动,我们可以先用一个3x3的卷积滤波器卷积,然后再用一个全连接层连接这个3x3卷积输出,这个全连接层我们也可以看做一个3x3卷积层。这样我们就可以用两个3x3卷积级联(叠加)起来代替一个 5x5卷积。

    具体如下图所示:

    在这里插入图片描述

    VGG网络结构

    在这里插入图片描述

    下面是VGG网络的结构(VGG16和VGG19都在):

    在这里插入图片描述

    GG网络结构

    VGG16包含了16个隐藏层(13个卷积层和3个全连接层),如上图中的D列所示

    VGG19包含了19个隐藏层(16个卷积层和3个全连接层),如上图中的E列所示

    VGG网络的结构非常一致,从头到尾全部使用的是3x3的卷积和2x2的max pooling。

    VGG优点

    VGGNet的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。

    几个小滤波器(3x3)卷积层的组合比一个大滤波器(5x5或7x7)卷积层好:

    验证了通过不断加深网络结构可以提升性能。

    VGG缺点

    VGG耗费更多计算资源,并且使用了更多的参数(这里不是3x3卷积的锅),导致更多的内存占用(140M)。

    数据集处理

    数据集介绍

    CIFAR(Canadian Institute For Advanced Research)数据集是计算机视觉领域广泛使用的一个小型图像数据集,主要用于训练机器学习和计算机视觉算法,特别是在图像识别、分类等任务中。CIFAR 数据集由两个主要部分组成:CIFAR-10 和 CIFAR-100。

    CIFAR-10 是一个包含 60000 张 32x32 彩色图像的数据集,这些图像被分为 10 个类别,每个类别包含 6000 张图像。这 10 个类别是:飞机、汽车、鸟、猫、鹿、狗、蛙、马、船和卡车。数据集中,50000 张图像用于训练,10000 张图像用于测试。CIFAR-10 数据集因其适中的大小和丰富的类别信息,成为了计算机视觉领域研究和教学中非常流行的数据集之一。

    数据集特点
    • 尺寸适中:CIFAR 数据集的图像尺寸较小(32x32),这使得它们非常适合用于快速训练和测试新的计算机视觉算法。
    • 类别多样:CIFAR-10 提供了基本的图像分类任务,而 CIFAR-100 则进一步挑战了算法的细粒度分类能力。
    • 广泛应用:由于这些特点,CIFAR 数据集被广泛用于计算机视觉、机器学习、深度学习等领域的研究和教学中。
    使用场景

    CIFAR 数据集常用于图像分类、物体识别、卷积神经网络(CNN)的训练和测试等任务。由于其适中的大小和丰富的类别信息,它成为了初学者和研究者探索图像识别算法的理想选择。此外,许多计算机视觉和机器学习竞赛也使用 CIFAR 数据集作为基准来评估参赛者的算法性能。

    准备数据集的话,我原来已经下载好了,如果不行,就通过官网下载,或者我直接给你们.

    需要数据集请联系 email :2837468248@qq.com

    我的数据集原来是通过 torchvision 中已经下载的数据进行的,我现在就是不太想这样,我想自己一步一步实现数据 Dataset 的定义,以及DataLoader 的加载,理解这个过程,了解数据集处理的流程,能让自己对深度学习更加的深刻。

    数据集样式如下:

    在这里插入图片描述

    解析数据集的所有标签

    数据集的标签类别使用一个.meta文件进行存储的,所以我们需要解析 .meta 文件进行读取所有的标签数据。解析代码如下:

    # 首先了解所有的标签,TODO 可以详细了解一下这个解包的过程
    import pickle
    
    
    def unpickle(file):
        with open(file, 'rb') as fo:
            dict = pickle.load(fo, encoding='bytes')
        return dict
    
    
    meta_data = unpickle('./dataset_method_1/cifar-10-batches-py/batches.meta')
    label_names = meta_data[b'label_names']
    # 将字节标签转换为字符串
    label_names = [label.decode('utf-8') for label in label_names]
    print(label_names)
    

    解析的结果如下:

    ['airplane', 'automobile', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck']
    

    载入单个批次的数据进行数据的简单测试

    我们的数据集已经下载好了,所以我们需要去读取文件的内容,由于文件是二进制文件,我们要利用二进制进行读取方式读取。

    读取代码如下:

    # 载入单个批次的数据
    import numpy as np
    
    
    def load_data_batch(file):
        with open(file, 'rb') as fo:
            dict = pickle.load(fo, encoding='bytes')
            X = dict[b'data']
            Y = dict[b'labels']
            X = X.reshape(10000, 3, 32, 32).transpose(0, 2, 3, 1)  # reshape and transpose to (10000, 32, 32, 3)
            Y = np.array(Y)
        return X, Y
    
    
    # 加载第一个数据批次
    data_batch_1 = './dataset_method_1/cifar-10-batches-py/data_batch_1'
    X1, Y1 = load_data_batch(data_batch_1)
    
    print(f'数据形状: {X1.shape}, 标签形状: {Y1.shape}')
    
    

    结果:

    数据形状: (10000, 32, 32, 3), 标签形状: (10000,)
    

    载入所有数据

    经过上面的一个测试,我们知道了载入数据的方法,现在我们来吧所有的数据进行载入。

    训练集的载入:

    # 整合所有批次的数据
    def load_all_data_batches(batch_files):
        X_list, Y_list = [], []
        for file in batch_files:
            X, Y = load_data_batch(file)
            X_list.append(X)
            Y_list.append(Y)
        X_all = np.concatenate(X_list)
        Y_all = np.concatenate(Y_list)
        return X_all, Y_all
    
    
    batch_files = [
        './dataset_method_1/cifar-10-batches-py/data_batch_1',
        './dataset_method_1/cifar-10-batches-py/data_batch_2',
        './dataset_method_1/cifar-10-batches-py/data_batch_3',
        './dataset_method_1/cifar-10-batches-py/data_batch_4',
        './dataset_method_1/cifar-10-batches-py/data_batch_5'
    ]
    
    X_train, Y_train = load_all_data_batches(batch_files)
    print(f'训练数据形状: {X_train.shape}, 训练标签形状: {Y_train.shape}')
    Y_train = Y_train.astype(np.int64)
    

    输出:

    训练数据形状: (50000, 32, 32, 3), 训练标签形状: (50000,)
    

    测试集的载入:

    test_batch = './dataset_method_1/cifar-10-batches-py/test_batch'
    X_test, Y_test = load_data_batch(test_batch)
    Y_test = Y_test.astype(np.int64)
    print(f'测试数据形状: {X_test.shape}, 测试标签形状: {Y_test.shape}')
    
    

    输出:

    测试数据形状: (10000, 32, 32, 3), 测试标签形状: (10000,)
    

    定义数据集 Dataset 的子类

    定义一个 Dataset 类的子类是为了方便后续进行载入Dataloader 进行批量训练的。

    Dataset 的子类必须要实现的方法有三个

    • __init__()类的构造函数
    • __len__()返回数据集的长度
    • __getitem__()获取数据集的一个数据

    这里我的实现如下:

    from torch.utils.data import DataLoader, Dataset
    
    
    # 定义 Pytorch 的数据集 
    class CIFARDataset(Dataset):
        def __init__(self, images, labels, transform=None):
            self.images = images
            self.labels = labels
            self.transform = transform
    
        def __len__(self):
            return len(self.images)
    
        def __getitem__(self, idx):
            image = self.images[idx]
            label = self.labels[idx]
    
            if self.transform:
                image = self.transform(image)
    
            return image, label
    

    把数据集加载为 Dataloader

    1. 定义一个 transform 变换,对数据进行增强,这里首先是训练集,要对训练集进行加宽 4px 处理,归一化,水平翻转,灰度处理,以及最后回到原像素 32 * 32。
    transform_train = transforms.Compose(
        [transforms.Pad(4),
         transforms.ToTensor(),
         transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)),
         transforms.RandomHorizontalFlip(),
         transforms.RandomGrayscale(),
         transforms.RandomCrop(32, padding=4),
         ])
    
    1. 把因为其中涉及到图像的处理,而我们从二进制文件中读取到的数据是 numpy 数据,所以要把numpy 数组转化为 Image 数据,方便进行图像的处理。处理如下:
    # 把数据集变成 Image 的数组,不然好像不能进行数据的增强
    # 改变训练数据
    from PIL import Image
    def get_PIL_Images(origin_data):
        datas = []
        for i in range(len(origin_data)):
            data = Image.fromarray(origin_data[i])
            datas.append(data)
        return datas
    
    1. 获取训练的dataloader
    train_data = get_PIL_Images(X_train)
    train_loader = DataLoader(CIFARDataset(train_data, Y_train, transform_train), batch_size=24, shuffle=True)
    
    1. 获取测试的dataloader测试集没有过多的处理这里直接给代码了
    # 测试集的预处理
    transform_test = transforms.Compose(
        [
            transforms.ToTensor(),
            transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225))]
    )
    test_loader = DataLoader(CIFARDataset(X_test, Y_test, transform_test), batch_size=24, shuffle=False)
    

    定义网络

    我们根据上面所讲的 VGG16 网络进行 Pytorch 框架上面的实现。

    主要分为:

    • 卷积层
    • 全连接层
    • 分类层

    实现如下:

    class VGG16(nn.Module):
        def __init__(self):
            super(VGG16, self).__init__()
            # 卷积层,这里进行卷积
            self.convolusion = nn.Sequential(
                nn.Conv2d(3, 96, kernel_size=3, padding=1), # 设置为padding=1 卷积完后,数据大小不会变
                nn.BatchNorm2d(96),
                nn.ReLU(inplace=True),
                nn.Conv2d(96, 96, kernel_size=3, padding=1),
                nn.BatchNorm2d(96),
                nn.ReLU(inplace=True),
                nn.Conv2d(96, 96, kernel_size=3, padding=1),
                nn.BatchNorm2d(96),
                nn.ReLU(inplace=True),
                nn.MaxPool2d(kernel_size=2, stride=2),
                nn.Conv2d(96, 128, kernel_size=3, padding=1),
                nn.BatchNorm2d(128),
                nn.ReLU(inplace=True),
                nn.Conv2d(128, 128, kernel_size=3, padding=1),
                nn.BatchNorm2d(128),
                nn.ReLU(inplace=True),
                nn.Conv2d(128, 128, kernel_size=3, padding=1),
                nn.BatchNorm2d(128),
                nn.ReLU(inplace=True),
                nn.MaxPool2d(kernel_size=2, stride=2),
                nn.Conv2d(128, 256, kernel_size=3, padding=1),
                nn.BatchNorm2d(256),
                nn.ReLU(inplace=True),
                nn.Conv2d(256, 256, kernel_size=3, padding=1),
                nn.BatchNorm2d(256),
                nn.ReLU(inplace=True),
                nn.Conv2d(256, 256, kernel_size=3, padding=1),
                nn.BatchNorm2d(256),
                nn.ReLU(inplace=True),
                nn.MaxPool2d(kernel_size=2, stride=2),
                nn.Conv2d(256, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.Conv2d(512, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.Conv2d(512, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.MaxPool2d(kernel_size=2, stride=2),
                nn.Conv2d(512, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.Conv2d(512, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.Conv2d(512, 512, kernel_size=3, padding=1),
                nn.BatchNorm2d(512),
                nn.ReLU(inplace=True),
                nn.MaxPool2d(kernel_size=2, stride=2),
                nn.AvgPool2d(kernel_size=1, stride=1)
            )
            # 全连接层
            self.dense = nn.Sequential(
                nn.Linear(512, 4096), # 32*32 的图像大小经过 5 次最大化池化后就只有 1*1 了,所以就是 512 个通道的数据输入全连接层
                nn.ReLU(inplace=True),
                nn.Dropout(0.4),
                nn.Linear(4096, 4096),
                nn.ReLU(inplace=True),
                nn.Dropout(0.4),
            )
            # 输出层
            self.classifier = nn.Linear(4096, 10)
    
        def forward(self, x):
            out = self.convolusion(x)
            out = out.view(out.size(0), -1)
            out = self.dense(out)
            out = self.classifier(out)
            return out
    

    训练与测试

    训练与测试的话,只需要对模型进行实例化,然后定义优化函数、损失函数,损失率,然后然步骤进行训练和测试即可。

    代码如下:

    超参数定义:

    # 定义模型进行训练
    model = VGG16()
    # model.load_state_dict(torch.load('./my-VGG16.pth'))
    optimizer = optim.SGD(model.parameters(), lr=0.01, weight_decay=5e-3)
    loss_func = nn.CrossEntropyLoss()
    scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.4, last_epoch=-1)
    

    测试函数:

    def test():
        model.eval()
        correct = 0  # 预测正确的图片数
        total = 0  # 总共的图片数
        with torch.no_grad():
            for data in test_loader:
                images, labels = data
                images = images.to(device)
                outputs = model(images).to(device)
                outputs = outputs.cpu()
                outputarr = outputs.numpy()
                _, predicted = torch.max(outputs, 1)
                total += labels.size(0)
                correct += (predicted == labels).sum()
        accuracy = 100 * correct / total
        accuracy_rate.append(accuracy)
        print(f'准确率为:{accuracy}%'.format(accuracy))
    

    训练 epochs:

    # 定义训练步骤
    total_times = 40
    total = 0
    accuracy_rate = []
    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
    
    for epoch in range(total_times):
        model.train()
        model.to(device)
        running_loss = 0.0
        total_correct = 0
        total_trainset = 0
        print("epoch: ",epoch)
        for i, (data,labels) in enumerate(train_loader):
            data = data.to(device)
            outputs = model(data).to(device)
            labels = labels.to(device)
            loss = loss_func(outputs,labels).to(device)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
            running_loss += loss.item()
            _,pred = outputs.max(1)
            correct = (pred == labels).sum().item()
            total_correct += correct
            total_trainset += data.shape[0]
            if i % 100 == 0 and i > 0:
                print(f"正在进行第{i}次训练, running_loss={running_loss}".format(i, running_loss))
                running_loss = 0.0
        test()
        scheduler.step()
    

    保存训练好的模型:

    torch.save(model.state_dict(), './my-VGG16.pth')
    accuracy_rate = np.array(accuracy_rate)
    times = np.linspace(1, total_times, total_times)
    plt.xlabel('times')
    plt.ylabel('accuracy rate')
    plt.plot(times, accuracy_rate)
    plt.show()
    print(accuracy_rate)
    

    检验

    1. 定义模型
    model_my_vgg = VGG16()
    
    1. 加入训练好的模型数据
    model_my_vgg.load_state_dict(torch.load('./my-VGG16-best.pth',map_location='cpu'))
    
    1. 处理我自己找的验证图片
    from torchvision import transforms
    from PIL import Image
    
    # 定义图像预处理步骤
    preprocess = transforms.Compose([
        transforms.Resize((32, 32)),
        transforms.ToTensor(),
        # transforms.Normalize(mean=[0.485,0.456,0.406], std=[0.229,0.224,0.225]),
    ])
    
    def load_image(image_path):
        image = Image.open(image_path)
        image = preprocess(image)
        image = image.unsqueeze(0)  # 添加批次维度
        return image
    
    image_data = load_image('./plane2.jpg')
    print(image_data.shape)
    output = model_my_vgg(image_data)
    verify_data = X1[9]
    verify_label = Y1[9]
    output_verify = model_my_vgg(transform_test(verify_data).unsqueeze(0))
    print(output)
    print(output_verify)
    

    输出:

    torch.Size([1, 3, 32, 32])
    tensor([[ 1.5990, -0.5269,  0.7254,  0.3432, -0.5036, -0.3267, -0.5302, -0.9417,
              0.4186, -0.1213]], grad_fn=<AddmmBackward0>)
    tensor([[-0.6541, -2.0759,  0.6308,  1.9791,  0.8525,  1.2313,  0.1856,  0.3243,
             -1.3374, -1.0211]], grad_fn=<AddmmBackward0>)
    
    1. 打印结果
    print(label_names[torch.argmax(output,dim=1,keepdim=False)])
    print(label_names[verify_label])
    print("pred:",label_names[torch.argmax(output_verify,dim=1,keepdim=False)])
    
    airplane
    cat
    pred: cat
    

    在这里插入图片描述

    验证马

    在这里插入图片描述

    验证狗

    在这里插入图片描述

  • 相关阅读:
    【图像检测】基于计算机视觉实现地质断层结构的自动增强和识别附matlab代码
    Prometheus+Grafana 搭建应用监控系统
    项目实战——配置git环境与项目创建
    【图像分类】Efficientnet的学习
    JavaWeb之jQuery
    微信小程序开发之会议oa(首页搭建)
    [spring]spring注入属性值的两种方式以及作用域
    关于图纸的吸附布局、全屏填充、适配内容来做图元根据图纸页面在不同窗口显示尺寸下自适应
    uniapp自定义底部导航
    【小白专用】VSCode下载和安装与配置PHP开发环境(详细版) 23.11.08
  • 原文地址:https://blog.csdn.net/Go_ahead_forever/article/details/140322940