当前位置:   article > 正文

人工智能基础部分20-生成对抗网络(GAN)的原理与简单应用_gan的应用

gan的应用

大家好,我是微学AI,今天给大家介绍一下人工智能基础部分20-生成对抗网络(GAN)的原理与简单应用。生成对抗网络是一种由深度学习模型构成的神经网络系统,由一个生成器和一个判别器相互博弈来提升模型的能力。本文将从以下几个方面进行阐述:生成对抗网络的概念、GAN的原理、GAN的实验设计。

一、前言

随着近年来人工智能发展的不断加速,尤其是深度学习的出现,使得计算机视觉领域取得了许多重要突破。生成对抗网络(Generative Adversarial Networks, GAN)是其中一种具有广泛应用前景的技术。GAN是一种生成式模型,它的主要原理是通过博弈论的方式,将生成模型与判别模型进行对抗训练,从而实现生成图像、音频等数据的任务。本文将对GAN 的工作原理进行详细解释,并通过一个图像生成示例项目,展示如何使用 PyTorch 框架实现 GAN,并给出实验结果与完整代码。

二、生成对抗网络(GAN)原理

GAN的核心思想是让两个网络(生成器和判别器)进行博弈,最终迭代得到一个高质量的生成器。生成器的任务是生成与真实数据分布相近的伪数据,而判别器的任务则是判断输入数据是来源于真实数据还是伪数据。通过优化生成器与判别器的博弈过程,使得生成器逐渐改进,能够生成越来越接近真实数据的伪数据。

2.1 生成器

生成器的主要作用是以随机噪声为输入,输出生成的伪数据。随机噪声是一个高斯分布的向量,我们可以通过一个深度神经网络模型(如卷积神经网络、前馈神经网络等)将这个高斯分布的向量映射成我们想要输出的伪数据。

2.2 判别器

判别器是一个二分类神经网络模型,输入可能来自生成器也可能来自真实数据。其任务是对输入数据进行分类,输出一个概率值以判断输入数据是来自真实数据集还是生成器生成的伪数据。

2.3 博弈过程

生成器与判别器博弈的过程即是各自的训练过程。生成器训练的目标是使得判别器对其生成的数据预测为真实数据的概率最大;判别器训练的目标是使得自身对真实数据与生成的数据的分类准确率最高。通过反复迭代这个过程,最终生成器能够生成越来越接近真实数据的伪数据。

2.4 数学原理

生成对抗网络(Generative Adversarial Networks,简称 GAN)是一种基于博弈论的生成模型,其数学原理可以用以下公式表示:

假设p_{data}(x)表示真实数据的分布,p_z(z) 表示生成器输入随机噪声z 的分布,G(z;\theta_g)表示生成器的输出,其中 \theta_g是生成器的参数,D(x;\theta_d) 表示判别器的输出,其中\theta_d是判别器的参数。

GAN 的目标是最小化以下损失函数:

\min_G\max_D V(D,G) = \mathbb{E}{x \sim p_{data}(x)}[\log D(x)] + \mathbb{E}_{z \sim p_z(z)}[\log(1 - D(G(z)))]

其中 \mathbb{E} 表示期望值,\log表示自然对数。

这个损失函数的含义是:最小化生成器生成的数据与真实数据之间的差距,同时最大化判别器对生成器生成的数据和真实数据的区分度。具体来说,第一项\mathbb{E}{x \sim p{data}(x)}[\log D(x)]表示真实数据被判别为真实数据的概率,第二项 \mathbb{E}_{z \sim p_z(z)}[\log(1 - D(G(z)))] 表示生成器生成的虚构数据被判别为虚构数据的概率。

在训练过程中,GAN 会交替训练生成器和判别器,通过最小化损失函数 V(D,G)来优化模型参数。具体来说,对于每个训练迭代,我们首先固定生成器的参数,通过最大化损失函数V(D,G) 来优化判别器的参数。然后,我们固定判别器的参数,通过最小化损失函数V(D,G) 来优化生成器的参数。这个过程会一直迭代下去,直到达到预定的迭代次数或者损失函数收敛。

三、实验设计

本文使用 tensorflow  框架实现 GAN,并在图像生成任务上进行训练。实验workflow 分为以下五个步骤:数据准备\构建生成器与判别器\设置损失函数与优化器、训练过程,让我们先从数据准备开始。

四、代码实现

下面我们将使用MNIST(手写数字化)这一经典的数据集来展示GANs的实际应用效果。

  1. import numpy as np
  2. import tensorflow as tf
  3. from tensorflow import keras
  4. from tensorflow.keras import layers
  5. # 设置随机种子以获得可重现的结果
  6. np.random.seed(42)
  7. tf.random.set_seed(42)
  8. # 加载MNIST数据集
  9. (x_train, y_train), (_, _) = keras.datasets.mnist.load_data()
  10. # 将数据规范化到[-1, 1]范围内
  11. x_train = x_train.astype(np.float32) / 127.5 - 1
  12. # 将数据集重塑为(-1, 28, 28, 1)
  13. x_train = np.expand_dims(x_train, axis=-1)
  14. # 创建生成器模型
  15. def create_generator():
  16. generator = keras.Sequential()
  17. generator.add(layers.Dense(7 * 7 * 256, use_bias=False, input_shape=(100,)))
  18. generator.add(layers.BatchNormalization())
  19. generator.add(layers.LeakyReLU(alpha=0.2))
  20. generator.add(layers.Reshape((7, 7, 256)))
  21. generator.add(layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias = False))
  22. generator.add(layers.BatchNormalization())
  23. generator.add(layers.LeakyReLU(alpha=0.2))
  24. generator.add(layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias = False))
  25. generator.add(layers.BatchNormalization())
  26. generator.add(layers.LeakyReLU(alpha=0.2))
  27. generator.add(
  28. layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias = False, activation ='tanh'))
  29. return generator
  30. generator = create_generator()
  31. # 创建鉴别器模型
  32. def create_discriminator():
  33. discriminator = keras.Sequential()
  34. discriminator.add(layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape = (28, 28, 1)))
  35. discriminator.add(layers.LeakyReLU(alpha=0.2))
  36. discriminator.add(layers.BatchNormalization())
  37. discriminator.add(layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same'))
  38. discriminator.add(layers.LeakyReLU(alpha=0.2))
  39. discriminator.add(layers.BatchNormalization())
  40. discriminator.add(layers.Flatten())
  41. discriminator.add(layers.Dropout(0.2))
  42. discriminator.add(layers.Dense(1, activation='sigmoid'))
  43. return discriminator
  44. discriminator = create_discriminator()
  45. # 编译鉴别器
  46. discriminator_optimizer = keras.optimizers.Adam(lr=0.0002, beta_1=0.5)
  47. discriminator.compile(optimizer=discriminator_optimizer, loss='binary_crossentropy', metrics = ['accuracy'])
  48. # 创建和编译整体GAN结构
  49. discriminator.trainable = False
  50. gan_input = keras.Input(shape=(100,))
  51. gan_output = discriminator(generator(gan_input))
  52. gan = keras.Model(gan_input, gan_output)
  53. gan_optimizer = keras.optimizers.Adam(lr=0.0002, beta_1=0.5)
  54. gan.compile(optimizer=gan_optimizer, loss='binary_crossentropy')
  55. # 模型训练函数
  56. def train_gan(epochs=100, batch_size=128):
  57. num_examples = x_train.shape[0]
  58. num_batches = num_examples // batch_size
  59. for epoch in range(epochs):
  60. for batch_idx in range(num_batches):
  61. noise = np.random.normal(size=(batch_size, 100))
  62. generated_images = generator.predict(noise)
  63. real_images = x_train[(batch_idx * batch_size):((batch_idx + 1) * batch_size)]
  64. all_images = np.concatenate([generated_images, real_images])
  65. labels = np.zeros(2 * batch_size)
  66. labels[batch_size:] = 1
  67. # 在噪声上加一点随机数,提高生成器的鲁棒性
  68. labels += 0.05 * np.random.rand(2 * batch_size)
  69. discriminator_loss = discriminator.train_on_batch(all_images, labels)
  70. noise = np.random.randn(batch_size, 100)
  71. misleading_targets = np.ones(batch_size)
  72. generator_loss = gan.train_on_batch(noise, misleading_targets)
  73. if (batch_idx + 1) % 50 == 0:
  74. print(
  75. f"Epoch:{epoch + 1}/{epochs} Batch:{batch_idx + 1}/{num_batches} Discriminator Loss: {discriminator_loss[0]} Generator Loss:{generator_loss}")
  76. train_gan()

以上实现了生成对抗网络是训练过程,实际中我们可以替换数据训练自己的数据模型。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/361505
推荐阅读
相关标签
  

闽ICP备14008679号