• 卷积神经网络(CNN)识别验证码


    ​活动地址:CSDN21天学习挑战赛

     前言


    一、前期工作

    1.导入数据

    1. import matplotlib.pyplot as plt
    2. # 支持中文
    3. plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
    4. plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
    5. import os,PIL,random,pathlib
    6. # 设置随机种子尽可能使结果可以重现
    7. import numpy as np
    8. np.random.seed(1)
    9. # 设置随机种子尽可能使结果可以重现
    10. import tensorflow as tf
    11. tf.random.set_seed(1)

    2.查看数据

    1. data_dir = "D:/jupyter notebook/CSDN21天学习计划/captcha"
    2. data_dir = pathlib.Path(data_dir)
    3. all_image_paths = list(data_dir.glob('*'))
    4. all_image_paths = [str(path) for path in all_image_paths]
    5. # 打乱数据
    6. random.shuffle(all_image_paths)
    7. # 获取数据标签
    8. all_label_names = [path.split("\\")[4].split(".")[0] for path in all_image_paths]
    9. image_count = len(all_image_paths)
    10. print("图片总数为:",image_count)

    图片总数为: 1070

    3.数据可视化

    1. plt.figure(figsize=(10,5))
    2. for i in range(20):
    3. plt.subplot(5,4,i+1)
    4. plt.xticks([])
    5. plt.yticks([])
    6. plt.grid(False)
    7. # 显示图片
    8. images = plt.imread(all_image_paths[i])
    9. plt.imshow(images)
    10. # 显示标签
    11. plt.xlabel(all_label_names[i])
    12. plt.show()

     4.标签数字化

    1. number = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9']
    2. alphabet = ['a','b','c','d','e','f','g','h','i','j','k','l','m','n','o','p','q','r','s','t','u','v','w','x','y','z']
    3. char_set = number + alphabet
    4. char_set_len = len(char_set)
    5. label_name_len = len(all_label_names[0])
    6. # 将字符串数字化
    7. def text2vec(text):
    8. vector = np.zeros([label_name_len, char_set_len])
    9. for i, c in enumerate(text):
    10. idx = char_set.index(c)
    11. vector[i][idx] = 1.0
    12. return vector
    13. all_labels = [text2vec(i) for i in all_label_names]

    二、构建一个tf.data.Dataset

    1.预处理函数

    1. def preprocess_image(image):
    2. image = tf.image.decode_jpeg(image, channels=1)
    3. image = tf.image.resize(image, [50, 200])
    4. return image/255.0
    5. def load_and_preprocess_image(path):
    6. image = tf.io.read_file(path)
    7. return preprocess_image(image)

    2.加载数据

    • 构建tf.data.Dataset最简单的方法就是使用from_tensor_slices方法。
    1. AUTOTUNE = tf.data.experimental.AUTOTUNE
    2. path_ds = tf.data.Dataset.from_tensor_slices(all_image_paths)
    3. image_ds = path_ds.map(load_and_preprocess_image, num_parallel_calls=AUTOTUNE)
    4. label_ds = tf.data.Dataset.from_tensor_slices(all_labels)
    5. image_label_ds = tf.data.Dataset.zip((image_ds, label_ds))
    6. image_label_ds

    .

    1. train_ds = image_label_ds.take(1000) # 前1000个batch
    2. val_ds = image_label_ds.skip(1000) # 跳过前1000,选取后面的

    3.配置数据

    • 先复习一下prefetch()函数。prefetch()功能详细介绍:CPU正在准备数据时,加速器处于空闲状态。相反,当加速器正在训练模型时,CPU处于空闲状态。因此,训练所用的时间是CPU预处理时间和加速器训练时间的总和。p refetch()将训练步骤的预处理和模型执行过程重叠到一起。当加速器正在执行第N个训练步时,CPU正在准备第N+1步的数据。这样做不仅可以最大限度地缩短训练的单步用时(而不是总用时),而且可以缩短提取和转换数据所需的时间。如果不使用
    • prefetch() ,CPU和GPU/TPU在大部分时间都处于空闲状态:

    • 使用prefetch( )可显著减少空闲时间:

    1. BATCH_SIZE = 16
    2. train_ds = train_ds.batch(BATCH_SIZE)
    3. train_ds = train_ds.prefetch(buffer_size=AUTOTUNE)
    4. val_ds = val_ds.batch(BATCH_SIZE)
    5. val_ds = val_ds.prefetch(buffer_size=AUTOTUNE)
    6. val_ds

    三、搭建网络模型

    • 目前这里主要是带大家跑通代码、整理一下思路,大家可以自行优化网络结构、调整模型参数。后续我也会针对性的出一些调优的案例的。
    1. from tensorflow.keras import datasets, layers, models
    2. model = models.Sequential([
    3. layers.Conv2D(32, (3, 3), activation='relu', input_shape=(50, 200, 1)),#卷积层1,卷积核3*3
    4. layers.MaxPooling2D((2, 2)), #池化层1,2*2采样
    5. layers.Conv2D(64, (3, 3), activation='relu'), #卷积层2,卷积核3*3
    6. layers.MaxPooling2D((2, 2)), #池化层2,2*2采样
    7. layers.Flatten(), #Flatten层,连接卷积层与全连接层
    8. layers.Dense(1000, activation='relu'), #全连接层,特征进一步提取
    9. layers.Dense(label_name_len * char_set_len),
    10. layers.Reshape([label_name_len, char_set_len]),
    11. layers.Softmax() #输出层,输出预期结果
    12. ])
    13. # 打印网络结构
    14. model.summary()

    四、编译

    1. model.compile(optimizer="adam",
    2. loss='categorical_crossentropy',
    3. metrics=['accuracy'])

    五、训练

    1. epochs = 20
    2. history = model.fit(
    3. train_ds,
    4. validation_data=val_ds,
    5. epochs=epochs
    6. )

    六、模型评估

    1. acc = history.history['accuracy']
    2. val_acc = history.history['val_accuracy']
    3. loss = history.history['loss']
    4. val_loss = history.history['val_loss']
    5. epochs_range = range(epochs)
    6. plt.figure(figsize=(12, 4))
    7. plt.subplot(1, 2, 1)
    8. plt.plot(epochs_range, acc, label='Training Accuracy')
    9. plt.plot(epochs_range, val_acc, label='Validation Accuracy')
    10. plt.legend(loc='lower right')
    11. plt.title('Training and Validation Accuracy')
    12. plt.subplot(1, 2, 2)
    13. plt.plot(epochs_range, loss, label='Training Loss')
    14. plt.plot(epochs_range, val_loss, label='Validation Loss')
    15. plt.legend(loc='upper right')
    16. plt.title('Training and Validation Loss')
    17. plt.show()

     七、保存和加载模型

    1. # 保存模型
    2. model.save('model/12_model.h5')
    3. # 加载模型
    4. new_model = tf.keras.models.load_model('model/12_model.h5')

    八、预测

    1. def vec2text(vec):
    2. """
    3. 还原标签(向量->字符串)
    4. """
    5. text = []
    6. for i, c in enumerate(vec):
    7. text.append(char_set[c])
    8. return "".join(text)
    9. plt.figure(figsize=(10, 8)) # 图形的宽为10高为8
    10. for images, labels in val_ds.take(1):
    11. for i in range(6):
    12. ax = plt.subplot(5, 2, i + 1)
    13. # 显示图片
    14. plt.imshow(images[i])
    15. # 需要给图片增加一个维度
    16. img_array = tf.expand_dims(images[i], 0)
    17. # 使用模型预测验证码
    18. predictions = model.predict(img_array)
    19. plt.title(vec2text(np.argmax(predictions, axis=2)[0]))
    20. plt.axis("off")

    可以看到验证码中大部分字符预测都是对的,但是少部分字符还是存在问题,大家可以试试优化一下网络结构,调整网络参数等。本案例适合练习优化技巧,借着这个案例了解一下不同的调整对结果有什么不同。

    ​参考资料:

    >- 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/k-vYaC8l7uxX51WoypLkTw) 中的学习记录博客
    >- 参考文章地址: [🔗深度学习100例-卷积神经网络(CNN)识别验证码 | 第12天](https://mtyjkh.blog.csdn.net/article/details/118211253)
     

  • 相关阅读:
    clickhouse介绍
    冒泡排序法的名字由来,排序步骤是什么,最坏情况下的排序次数如何计算得来的呢?
    Synchronized锁升级原理与过程深入剖析
    jenkins结合126邮箱提醒
    【使用教程】在Ubuntu下PMM60系列一体化伺服电机通过PDO跑循环同步位置模式详解
    个人事务管理系统
    面试:CAS算法原理
    GitHub上有助于开发微信小程序的仓库
    Spark bulkload一些问题2
    谷粒商城 高级篇 (十九) --------- 消息队列
  • 原文地址:https://blog.csdn.net/qq_21402983/article/details/126332911