对抗网络DCGAN 生成图片的应用

DCGAN原理介绍

我们知道深度学习中对图像处理应用最好的模型是CNN,那么如何把CNN与GAN结合?DCGAN是这方面最好的尝试之一(论文地址:[1511.06434] Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

DCGAN的原理和GAN是一样的,这里就不在赘述。它只是把上述的G和D换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变有:

  • 取消所有pooling层。G网络中使用转置卷积(transposed convolutional layer)进行上采样,D网络中用加入stride的卷积代替pooling。
  • 在D和G中均使用batch normalization
  • 去掉FC层,使网络变为全卷积网络
  • G网络中使用ReLU作为激活函数,最后一层使用tanh
  • D网络中使用LeakyReLU作为激活函数

    DCGAN中的G网络示意:

     

    DCGAN在Tensorflow中已经有人造好了轮子:https://github.com/carpedm20/DCGAN-tensorflow,我们直接使用这个代码就可以了。

    如果要训练mnist 
    

    执行python download.py mnist
    

    那么在data下面下载好了mnist
    

    运行训练:
    

    python main.py --dataset mnist --input_height=28 --output_height=28 --train
    

     

     

    如果需要运行自己的数据,我们在data文件夹中再新建一个bsd200文件夹,把图片直接放到这个文件夹里,运行时指定--dataset bsd200即可。因为这里图片格式是png,所以注意下面命令行中使用*.png

    运行训练:

    python main.py --input_height 96 --output_height 48 --dataset faces --epoch 300 --train True --crop True --input_fname_pattern "*.jpg"

    训练花了一天左右的时间。

    得到比较好的效果了:

     

    在运行过程中如果遇到错误:

    E tensorflow/stream_executor/cuda/cuda_dnn.cc:371] could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR

    解决方法:sudo rm -f ~/.nv

     

    下面介绍dcgan网络的代码实现原理。

  1. 图结构定义:

    self.z = tf.placeholder(tf.float32, [None, self.z_dim], name='z')//定义100维的分布数据。

    self.G = self.generator(self.z, self.y)//定义产生网络,网络的输入是100维数据,Y可以不使用。返回的G就是产生的图像。

     

    另一方面

    self.inputs = tf.placeholder(tf.float32, [self.batch_size] + image_dims, name='real_images')//定义输入真实的图像,用于训练区分网络D

     

     

    self.D, self.D_logits = self.discriminator(inputs, self.y, reuse=False)//调用D网络,对于真实图像进行判断。得到输出的结果逻辑。

    self.D_, self.D_logits_ = self.discriminator(self.G, self.y, reuse=True) //调用D网络,对于G网络产生的图像进行判断。得到输出的结果逻辑。

     

    区分网络D对应的loss计算方法。

    self.d_loss_real = tf.reduce_mean(sigmoid_cross_entropy_with_logits(self.D_logits, tf.ones_like(self.D)))//理想的区分网络,需要真实图片区分成1

    self.d_loss_fake = tf.reduce_mean(sigmoid_cross_entropy_with_logits(self.D_logits_, tf.zeros_like(self.D_)))//理想的区分网络,需要产生图片区分成0

     

     

    self.g_loss = tf.reduce_mean(sigmoid_cross_entropy_with_logits(self.D_logits_, tf.ones_like(self.D_)))//理想的产生网络,把使区分网络把其产生的图像为1.

    //这里可能有点难理解,需要把区分网络的相应的参数不变,把其想象成理想的区分网络,那么如果当前产生的图像,被送到区分网络中理想标签应为1.

  2. 训练方法:

    在一个batch_size数据,首先固定G网络的参数,训练D网络。然后固定D网络的参数,训练G网络。在代码中这个地方比较难理解。看下面代码。d_optim代化时实际只优了与d有关的参数,同理g_optim也是一样。

    主要实现可以看看变量列表var_list

    d_optim = tf.train.AdamOptimizer(config.learning_rate, beta1=config.beta1).minimize(self.d_loss, var_list=self.d_vars)

    g_optim = tf.train.AdamOptimizer(config.learning_rate, beta1=config.beta1).minimize(self.g_loss, var_list=self.g_vars)

猜你喜欢

转载自blog.csdn.net/bvngh3247/article/details/80236447