• 猿创征文|深度学习基于ResNet18网络完成图像分类


    一.前言

    本次任务是利用ResNet18网络实践更通用的图像分类任务。

    ResNet系列网络,图像分类领域的知名算法,经久不衰,历久弥新,直到今天依旧具有广泛的研究意义和应用场景。被业界各种改进,经常用于图像识别任务。

    今天主要介绍一下ResNet-18网络结构的案例,其他深层次网络,可以依次类推。

    ResNet-18,数字代表的是网络的深度,也就是说ResNet18 网络就是18层的吗?实则不然,其实这里的18指定的是带有权重的 18层,包括卷积层和全连接层,不包括池化层和BN层。

    图像分类(Image Classification)是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务也可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。

    • 数据集:使用的计算机视觉领域的经典CIFAR-10数据集
    • 网络层:网络为ResNet18模型
    • 优化器:优化器为Adam优化器
    • 损失函数:损失函数为交叉熵损失
    • 评价指标:评价指标为准确率

     ResNet 网络简介:

    在这里插入图片描述
     

    二.数据预处理

    2.1 数据集介绍

    CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的图像都是6000张,图像大小均为32×3232×32像素。

    2.2 数据读取

    在本实验中,将原始训练集拆分成了train_set、dev_set两个部分,分别包括40 000条和10 000条样本。将data_batch_1到data_batch_4作为训练集,data_batch_5作为验证集,test_batch作为测试集。 最终的数据集构成为:

    • 训练集:40 000条样本。
    • 验证集:10 000条样本。
    • 测试集:10 000条样本。

    读取一个batch数据的代码如下所示:

    1. import os
    2. import pickle
    3. import numpy as np
    4. def load_cifar10_batch(folder_path, batch_id=1, mode='train'):
    5. if mode == 'test':
    6. file_path = os.path.join(folder_path, 'test_batch')
    7. else:
    8. file_path = os.path.join(folder_path, 'data_batch_'+str(batch_id))
    9. #加载数据集文件
    10. with open(file_path, 'rb') as batch_file:
    11. batch = pickle.load(batch_file, encoding = 'latin1')
    12. imgs = batch['data'].reshape((len(batch['data']),3,32,32)) / 255.
    13. labels = batch['labels']
    14. return np.array(imgs, dtype='float32'), np.array(labels)
    15. imgs_batch, labels_batch = load_cifar10_batch(folder_path='datasets/cifar-10-batches-py',
    16. batch_id=1, mode='train')

    查看数据的维度:

    1. #打印一下每个batch中X和y的维度
    2. print ("batch of imgs shape: ",imgs_batch.shape, "batch of labels shape: ", labels_batch.shape)

    batch of imgs shape:  (10000, 3, 32, 32) batch of labels shape:  (10000,)

    可视化观察其中的一张样本图像和对应的标签,代码如下所示:

    1. %matplotlib inline
    2. import matplotlib.pyplot as plt
    3. image, label = imgs_batch[1], labels_batch[1]
    4. print("The label in the picture is {}".format(label))
    5. plt.figure(figsize=(2, 2))
    6. plt.imshow(image.transpose(1,2,0))
    7. plt.savefig('cnn-car.pdf')

    2.3 构造Dataset类

    构造一个CIFAR10Dataset类,其将继承自paddle.io.DataSet类,可以逐个数据进行处理。代码实现如下:

    1. import paddle
    2. import paddle.io as io
    3. from paddle.vision.transforms import Normalize
    4. class CIFAR10Dataset(io.Dataset):
    5. def __init__(self, folder_path='/home/aistudio/cifar-10-batches-py', mode='train'):
    6. if mode == 'train':
    7. #加载batch1-batch4作为训练集
    8. self.imgs, self.labels = load_cifar10_batch(folder_path=folder_path, batch_id=1, mode='train')
    9. for i in range(2, 5):
    10. imgs_batch, labels_batch = load_cifar10_batch(folder_path=folder_path, batch_id=i, mode='train')
    11. self.imgs, self.labels = np.concatenate([self.imgs, imgs_batch]), np.concatenate([self.labels, labels_batch])
    12. elif mode == 'dev':
    13. #加载batch5作为验证集
    14. self.imgs, self.labels = load_cifar10_batch(folder_path=folder_path, batch_id=5, mode='dev')
    15. elif mode == 'test':
    16. #加载测试集
    17. self.imgs, self.labels = load_cifar10_batch(folder_path=folder_path, mode='test')
    18. self.transform = Normalize(mean=[0.4914, 0.4822, 0.4465], std=[0.2023, 0.1994, 0.2010], data_format='CHW')
    19. def __getitem__(self, idx):
    20. img, label = self.imgs[idx], self.labels[idx]
    21. img = self.transform(img)
    22. return img, label
    23. def __len__(self):
    24. return len(self.imgs)
    25. paddle.seed(100)
    26. train_dataset = CIFAR10Dataset(folder_path='datasets/cifar-10-batches-py', mode='train')
    27. dev_dataset = CIFAR10Dataset(folder_path='datasets/cifar-10-batches-py', mode='dev')
    28. test_dataset = CIFAR10Dataset(folder_path='datasets/cifar-10-batches-py', mode='test')

    三、模型构建

    使用飞桨高层API中的Resnet18进行图像分类实验。

    1. from paddle.vision.models import resnet18
    2. resnet18_model = resnet18()

    飞桨高层 API是对飞桨API的进一步封装与升级,提供了更加简洁易用的API,进一步提升了飞桨的易学易用性。其中,飞桨高层API封装了以下模块:

    1. Model类,支持仅用几行代码完成模型的训练;
    2. 图像预处理模块,包含数十种数据处理函数,基本涵盖了常用的数据处理、数据增强方法;
    3. 计算机视觉领域和自然语言处理领域的常用模型,包括但不限于mobilenet、resnet、yolov3、cyclegan、bert、transformer、seq2seq等等,同时发布了对应模型的预训练模型,可以直接使用这些模型或者在此基础上完成二次开发。

    四、模型训练

    复用RunnerV3类,实例化RunnerV3类,并传入训练配置。 使用训练集和验证集进行模型训练,共训练30个epoch。 在实验中,保存准确率最高的模型作为最佳模型。代码实现如下:

    1. import paddle.nn.functional as F
    2. import paddle.optimizer as opt
    3. from nndl import RunnerV3, Accuracy
    4. #指定运行设备
    5. use_gpu = True if paddle.get_device().startswith("gpu") else False
    6. if use_gpu:
    7. paddle.set_device('gpu:0')
    8. #学习率大小
    9. lr = 0.001
    10. #批次大小
    11. batch_size = 64
    12. #加载数据
    13. train_loader = io.DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
    14. dev_loader = io.DataLoader(dev_dataset, batch_size=batch_size)
    15. test_loader = io.DataLoader(test_dataset, batch_size=batch_size)
    16. #定义网络
    17. model = resnet18_model
    18. #定义优化器,这里使用Adam优化器以及l2正则化策略,相关内容在7.3.3.2和7.6.2中会进行详细介绍
    19. optimizer = opt.Adam(learning_rate=lr, parameters=model.parameters(), weight_decay=0.005)
    20. #定义损失函数
    21. loss_fn = F.cross_entropy
    22. #定义评价指标
    23. metric = Accuracy(is_logist=True)
    24. #实例化RunnerV3
    25. runner = RunnerV3(model, optimizer, loss_fn, metric)
    26. #启动训练
    27. log_steps = 3000
    28. eval_steps = 3000
    29. runner.train(train_loader, dev_loader, num_epochs=30, log_steps=log_steps,
    30. eval_steps=eval_steps, save_path="best_model.pdparams")

    可视化观察训练集与验证集的准确率及损失变化情况。

    1. from nndl import plot
    2. plot(runner, fig_name='cnn-loss4.pdf')

    在本实验中,使用了第7章中介绍的Adam优化器进行网络优化,如果使用SGD优化器,会造成过拟合的现象,在验证集上无法得到很好的收敛效果。可以尝试使用第7章中其他优化策略调整训练配置,达到更高的模型精度。

    五、模型评价

    使用测试数据对在训练过程中保存的最佳模型进行评价,观察模型在测试集上的准确率以及损失情况。代码实现如下:

    1. # 加载最优模型
    2. runner.load_model('best_model.pdparams')
    3. # 模型评价
    4. score, loss = runner.evaluate(test_loader)
    5. print("[Test] accuracy/loss: {:.4f}/{:.4f}".format(score, loss))

    [Test] accuracy/loss: 0.7234/0.8324

    六、模型预测

    同样地,也可以使用保存好的模型,对测试集中的数据进行模型预测,观察模型效果,具体代码实现如下:

    1. #获取测试集中的一个batch的数据
    2. X, label = next(test_loader())
    3. logits = runner.predict(X)
    4. #多分类,使用softmax计算预测概率
    5. pred = F.softmax(logits)
    6. #获取概率最大的类别
    7. pred_class = paddle.argmax(pred[2]).numpy()
    8. label = label[2][0].numpy()
    9. #输出真实类别与预测类别
    10. print("The true category is {} and the predicted category is {}".format(label[0], pred_class[0]))
    11. #可视化图片
    12. plt.figure(figsize=(2, 2))
    13. imgs, labels = load_cifar10_batch(folder_path='/home/aistudio/datasets/cifar-10-batches-py', mode='test')
    14. plt.imshow(imgs[2].transpose(1,2,0))
    15. plt.savefig('cnn-test-vis.pdf')

    The true category is 8 and the predicted category is 8

    真实是8,预测是8。ship

  • 相关阅读:
    【CSS】CSS基础知识扫盲
    运行报错(三)git bash报错fatal: detected dubious ownership in repository at
    VScode+YOLOv8+深度相机D435i实现物体追踪
    GCC编译器
    智能农业技术:物联网、无人机与机器人引领的绿色革命
    [Spring boot] Spring boot 整合RabbitMQ实现通过RabbitMQ进行项目的连接
    TinyWebServer学习笔记-让程序跑起来
    算法-具有所有最深节点的最小子树(Kotlin)
    50、Spring WebFlux 的 自动配置 的一些介绍,与 Spring MVC 的一些对比
    当黑客遇到电脑白痴
  • 原文地址:https://blog.csdn.net/qq_21402983/article/details/126684659