• 深度学习100例 —— 生成对抗网络(GAN)手写数字生成


    活动地址:CSDN21天学习挑战赛

    深度学习100例——生成对抗网络(GAN)手写数字生成

    我的环境

    在这里插入图片描述

    1 前期工作

    1.1 设置GPU
    import tensorflow as tf
    
    gpus = tf.config.list_physical_devices("GPU")
    
    if gpus:
        tf.config.experimental.set_memory_growth(gpus[0], True)  #设置GPU显存用量按需使用
        tf.config.set_visible_devices([gpus[0]],"GPU")
        
    # 打印显卡信息,确认GPU可用
    print(gpus)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    在这里插入图片描述

    from tensorflow.keras import layers, datasets, Sequential, Model, optimizers
    from tensorflow.keras.layers import LeakyReLU, UpSampling2D, Conv2D
    
    import matplotlib.pyplot as plt
    import numpy             as np
    import sys,os,pathlib
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    1.2 定义训练参数
    img_shape  = (28, 28, 1)
    latent_dim = 200
    
    • 1
    • 2

    2 什么是生成对抗网络

    2.1 简单介绍

    生成对抗网络(GAN)包含生成器和判别器,两个模型通过对抗训练不断学习、进化。

    生成器(Generator):生成数据(大部分情况下是图像),目的是“骗过"判别器。

    鉴别器(Discriminator):判断这张图像是真实的还是机器生成的,目的是找出生成器生成的“假数据”。

    2.2 应用领域

    GAN 的应用十分广泛,它的应用包括图像合成、风格迁移、照片修复以及照片编辑,数据增强等等。

    【风格迁移】

    图像风格迁移是将图像A的风格转换到图像B中去,得到新的图像。

    在这里插入图片描述

    【图像生成】

    GAN不但能生成人脸,还能生成其他类型的图片,比如漫画人物。

    在这里插入图片描述

    3 网络结构

    简单来讲,就是用生成器生成手写数字图像,用鉴别器鉴别图像的真假。二者相互对抗学习(卷),在对抗学习(卷)的过程中不断完善自己,直至生成器可以生成以假乱真的图片(鉴别器无法判断其真假)。

    在这里插入图片描述

    GAN步骤:

    1.生成器(Generator)接收随机数并返回生成图像。

    2.将生成的数字图像与实际数据集中的数字图像一起送到鉴别器(Discriminator)。

    3.鉴别器(Discriminator)接收真实和假图像并返回概率,0到1之间的数字,1表示真,0表示假。

    4 构建生成器

    def build_generator():
        # ======================================= #
        #     生成器,输入一串随机数字生成图片
        # ======================================= #
        model = Sequential([
            layers.Dense(256, input_dim=latent_dim),
            layers.LeakyReLU(alpha=0.2),               # 高级一点的激活函数
            layers.BatchNormalization(momentum=0.8),   # BN 归一化
            
            layers.Dense(512),
            layers.LeakyReLU(alpha=0.2),
            layers.BatchNormalization(momentum=0.8),
            
            layers.Dense(1024),
            layers.LeakyReLU(alpha=0.2),
            layers.BatchNormalization(momentum=0.8),
            
            layers.Dense(np.prod(img_shape), activation='tanh'),
            layers.Reshape(img_shape)
        ])
    
        noise = layers.Input(shape=(latent_dim,))
        img = model(noise)
    
        return Model(noise, img)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    5 构建鉴别器

    def build_discriminator():
        # ===================================== #
        #   鉴别器,对输入的图片进行判别真假
        # ===================================== #
        model = Sequential([
            layers.Flatten(input_shape=img_shape),
            layers.Dense(512),
            layers.LeakyReLU(alpha=0.2),
            layers.Dense(256),
            layers.LeakyReLU(alpha=0.2),
            layers.Dense(1, activation='sigmoid')
        ])
    
        img = layers.Input(shape=img_shape)
        validity = model(img)
    
        return Model(img, validity)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    在这里插入图片描述

    鉴别器训练原理:通过对输入的图片进行鉴别,从而达到提升的效果

    生成器训练原理:通过鉴别器对其生成的图片进行鉴别,来实现提升

    # 创建判别器
    discriminator = build_discriminator()
    # 定义优化器
    optimizer = tf.keras.optimizers.Adam(1e-4)
    discriminator.compile(loss='binary_crossentropy',
                          optimizer=optimizer,
                          metrics=['accuracy'])
    
    # 创建生成器 
    generator = build_generator()
    gan_input = layers.Input(shape=(latent_dim,))
    img = generator(gan_input)
    
    # 在训练generate的时候不训练discriminator
    discriminator.trainable = False
    
    # 对生成的假图片进行预测
    validity = discriminator(img)
    combined = Model(gan_input, validity)
    combined.compile(loss='binary_crossentropy', optimizer=optimizer)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    6 训练模型

    6.1 保存样例图片
    def sample_images(epoch):
        """
        保存样例图片
        """
        row, col = 4, 4
        noise = np.random.normal(0, 1, (row*col, latent_dim))
        gen_imgs = generator.predict(noise)
    
        fig, axs = plt.subplots(row, col)
        cnt = 0
        for i in range(row):
            for j in range(col):
                axs[i,j].imshow(gen_imgs[cnt, :,:,0], cmap='gray')
                axs[i,j].axis('off')
                cnt += 1
        fig.savefig("images/%05d.png" % epoch)
        plt.close()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    【这里需要先把images文件夹创好,不然后面训练会报找不到文件夹】

    6.2 训练模型

    train_on_batch:函数接受单批数据,执行反向传播,然后更新模型参数,该批数据的大小可以是任意的,即,它不需要提供明确的批量大小,属于精细化控制训练模型。

    def train(epochs, batch_size=128, sample_interval=50):
        # 加载数据
        (train_images,_), (_,_) = tf.keras.datasets.mnist.load_data()
    
        # 将图片标准化到 [-1, 1] 区间内   
        train_images = (train_images - 127.5) / 127.5
        # 数据
        train_images = np.expand_dims(train_images, axis=3)
    
        # 创建标签
        true = np.ones((batch_size, 1))
        fake = np.zeros((batch_size, 1))
        
        # 进行循环训练
        for epoch in range(epochs): 
    
            # 随机选择 batch_size 张图片
            idx = np.random.randint(0, train_images.shape[0], batch_size)
            imgs = train_images[idx]      
            
            # 生成噪音
            noise = np.random.normal(0, 1, (batch_size, latent_dim))
            # 生成器通过噪音生成图片,gen_imgs的shape为:(128, 28, 28, 1)
            gen_imgs = generator.predict(noise)
            
            # 训练鉴别器 
            d_loss_true = discriminator.train_on_batch(imgs, true)
            d_loss_fake = discriminator.train_on_batch(gen_imgs, fake)
            # 返回loss值
            d_loss = 0.5 * np.add(d_loss_true, d_loss_fake)
    
            # 训练生成器
            noise = np.random.normal(0, 1, (batch_size, latent_dim))
            g_loss = combined.train_on_batch(noise, true)
            
            print ("%d [D loss: %f, acc.: %.2f%%] [G loss: %f]" % (epoch, d_loss[0], 100*d_loss[1], g_loss))
    
            # 保存样例图片
            if epoch % sample_interval == 0:
                sample_images(epoch)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    train(epochs=30000, batch_size=256, sample_interval=200)
    
    • 1

    在这里插入图片描述

    7 生成动图

    import imageio
    
    def compose_gif():
        # 图片地址
        data_dir = "images/"
        data_dir = pathlib.Path(data_dir)
        paths    = list(data_dir.glob('*'))
        
        gif_images = []
        for path in paths:
            print(path)
            gif_images.append(imageio.imread(path))
        imageio.mimsave("test.gif",gif_images,fps=2)
        
    compose_gif()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    在这里插入图片描述

  • 相关阅读:
    大工22春《工程抗震》大作业题目及要求【标准答案】
    温度响应性纳米水凝胶光子品体/纤维素修饰荧光水凝胶/载脂质体水凝胶的制备方法
    多线程(73)什么时候应该使用自旋锁而不是阻塞锁
    STM32CubeMX新建工程并点亮一个LED
    sqli-labs/Less-54
    【数值分析】复习知识点整合
    统一异常处理导致ResponseBodyAdvice失效
    深度解析纽约时报个人叙事赛
    SpringBoot 40 个常用注解:让生产力爆表!(荣耀典藏版)
    运维工作的“本手、妙手、俗手”
  • 原文地址:https://blog.csdn.net/weixin_44226181/article/details/126377846