Pixel2Pixel论文笔记与实现

一、概述

  本文是论文Image-to-Image Translation with Conditional Adversarial Net-works的阅读笔记。虽然年代已经有些旧远,但是像这种计算机视觉领域的经典文献,尤其是pixel2pixel这样面向一大类问题的文章,其涉及的知识之广度和深度,都是非常值得去学习和探究的。作者试图用一个网络,来解决任意Image-to-Image Translation的问题,并且在其中几个有代表性的子问题(如真实图<->语义分割图, 卫星图<->谷歌地图,边缘图填充,图像着色等)上达到了和领域内一些专门定制的方法相媲美的效果,可谓以不变应万变。

  以下是一些相关的论文插图,包括一些近期的扩展工作,比如2的成果(虽然在原始pix2pix基础上专注于语义图转换,但是效果确实惊艳!)

Fig. 1 原始pix2pix论文
Fig. 2 pix2pixHD插图 1
Fig. 3 pix2pixHD,生成图像质量有极大提高
Fig. 4 pix2pixHD, 一个input对应的三个采样。说明生成图像的高度丰富

  pix2pixHD论文中好多插图对比实验甚至都不放原始pixel2pixel2的结果了...话不多说,只有打好基础,才能去学习最新的fancy方法!

  本文组织结构如下:第二部分介绍原始pixel2pixel的论文笔记;第三部分是自己用Gluon在不同的数据集上训练pixel2pixel的结果。最后一部分总结这篇论文的收获和问题。

二、Image-to-Image Translation with Conditional Adversarial Networks

2.1 背景介绍

  许多图像处理领域(本文主要以graphvision两个为例,解释见下)都涉及从一个图像到另一个图像的转换问题。不同图像之间转换,如RGB图,gradient field,edge map,semantic label map等等,此前都是用特定的算法去解决。而这些图像其实本质上具有相同的特征,即mapping from pixels to pixels。类比相同意思不同语言之间可以相互翻译,这些相同图像不同的表现形式之间也可以相互“translate”,故本文的任务设定为:

Translating one possible representation of a scene into another, given sufficient training data.

  如前面所述,在不同的graph(本文中主要指realistic photo synthesis)以及vision(如语义分割)任务中,单独处理每个领域都需要通过设计不同的problem-dependent loss来指导网络训练,我们能不能找到一个较通用的方法,来处理这一大类图像转换问题呢?其实有一个现成的方法,简单粗暴——使用欧氏距离(或者说squared-L2,MSE等)作为通用目标函数,通过训练逐渐减小预测输出和groundtruth之间的差距。

2.2 MSE作为通用的目标函数有什么不好?

   直观上理解,如果生成的图像和真实图像之间的差距非常小,那么生成的结果应该看起来非常逼真。然而事实上这种训练方法有两个问题,如下所述:

Fig. 5 使用MSE训练会引入模糊

  上图展示了一个预测视频下一帧的例子。如果用实际的下一帧图像和预测得到的下一帧图像之间的均方误差作为损失函数来训练网络,最后得到的结果如中间图所示。产生这样结果的原因在于,这一任务可能存在多个可能的正确结果(这里的多个可能结果能不能理解成,和groundtruth恰好具有相同MSE的输出图像组成的一个集合?),不同结果之间具有微小的差异,比如眼睛、耳朵的位置,人脸角度等。模型被要求只输出一个结果,所以最终结果是多个可能结果的平均(average all plausible outputs)。我在另一篇博客中更详细地介绍了L2 loss引入模糊的原因。

2.3 结构化与非结构化损失

  在许多图像重建任务中,相比使用L2(MSE)作为通用损失函数,还有另一个非常通用的概念,即论文中提到的"per-pixel classification or regression ",我自己的理解就是所谓的图像回归任务。当然这个说法非常宽泛,比如下图的例子,输入一个图像,通过一个CNN,输出一定空间维度的特征图,然后使用一个loss函数约束输出特征图,使其逐步逼近我们想要得到的输出(label图),这就可以看做一个回归任务,有的教材将其视作分类任务,如下图,个人还是觉得看出回归任务比较直观,因为每个像素点的输出值可以范围非常大。这里也体现出分类和回归其实并非泾渭分明。

Fig. 6 简单的图像去噪例子

  注意上面说的是“一定空间维度的输出”,上图给的例子是输入和输出维度一致的。然而这种回归的思想广泛用于各种视觉领域,比如对于单张图像样本而言,输出维度是输入的倍数——超分辨率重建任务;输出维度是一固定长度的向量,比如如[obj,c1,c2, x, y, w, h] × N 可以代表YOLO算法输出的N个bbox的位置和概率信息(yolo将图像回归到一条长向量上,虽然对于类别信息和位置信息回归时使用不同的loss);再比如输出维度是一定通道数目的高斯响应,如landmark回归任务(要得到多少个key point 就输出多少个通道,每个通道去学习一个以key point 位置为中心的高斯响应图)。

  扯得有点远。总之,计算机视觉领域很多看起来比较复杂的任务其实都可以归结为回归任务,而不是非得拟合曲线那种线性回归。使用简单的图像回归模式来formulate大部分的Image-to-image translation,虽然是一种较通用的方法,但是这里面有一个问:潜在地任务输出空间的每一个像素,在给定的输入下,是条件独立的。这被称为一种非结构化(unstructured)的学习方式,简单来说就是忽略了像素与像素之间的联系。与之相对应的是结构化损失函数(structured loss),比如条件随机场CRFPerceptual lossFeature matching 等一些暂时还没研究过的算法。这些不同的结构化损失函数都是为了惩罚输入和输出结构上的差异,而不仅仅是像素级差异。【而本文提出的基于cGAN的方法和上面这些不同之处在于,其可以根据需要自动学习这些结构化的损失函数。】

问题:如何理解“GAN可以自动学习损失函数” 这句话?(如论文中说的:
"GANs not only learn the mapping from input image to output image, but also learn a loss function to train this mapping.")

2.4 设计网络架构

  本文中在介绍网络架构的同时介绍了很多有用的信息点。一些我认为很有用的点被列在下面,顺带介绍下网络结构以及训练中的事项。

  首先一个问题是,为什么要使用cGAN,而不是直接用GAN生成。我们知道,单纯的GAN属于隐式的生成模型,不会显式的进行概率密度估计,而是从训练集所属的数据分布中随机采样。但是由于在高维空间中采样难度较大,所以我们采取一种间接的方式:在低维空间中采样,如一维的高斯噪声。如果能建立一种映射关系,把在低维度采样和在高维度采样这两件事联系起来,就能通过在低维采样来代替高维采样。这个映射关系自然由万能近似器——神经网络来学习。如上述所说,GAN这种setting的第一个问题,在于无法点对点的进行Image Translation任务。因为我们最终得到的只是一些采样的结果,而无法根据输入生成想要的输出。

  另一个问题在于,GAN生成的图像可能会无视输入图像的不同,而输出较单一的模式。接下来我们具体来看下论文中提出的网络架构有哪些有价值的信息:

2.4.1 生成器
  • 整体架构使用Unet。原因在于很多图像转换任务(比如图像上色)不只是需要语义信息,还需要网络保留一些低级信息,如颜色、轮廓等。故采用Unet对称的跳跃连接结构将低层信息直接复制到高层特征图上。Unet实际上就是加了跳跃连接的AutoEncoder结构。
  • 在Unet-Block的设计中参考了DCGAN的结构,如不使用pooling,使用LeakeyRelu作为激活函数等。详见后面的代码。
  • 【很多条件生成对抗网络不仅仅输入先验x,往往还会引入噪声z,一起作为输入。这部分我没看懂...说是如果不引入一些噪声,网络的输出会变成确定的。所以要引入一点噪声。然后作者又说他们尝试了在输入引入高斯噪声,但是发现没效果。所以最后网络架构中使用的是Dropout噪声(可能是因为Dropout引入了随机性,所以可以看做某种噪声?)】
Fig. 7. 通过Dropout为网络引入噪声
2.4.2 判别器
  • 辅助的L1 loss与patchGAN 判别器
    论文中提到,虽然L2 loss这类损失函数会引入模糊,但是可以精确地捕捉到低频信息。故本文使用L1 loss作为辅助来学习低频信息。这样还有另一个好处,就是GAN的判别器部分只需要学习高频信息即可。这样判别器只需要关注图像局部的结构,而不需要看到全图的信息才能做出判断。具体来说,本文使用一种叫patchGAN的判别器结构,相比用来判断整张生成的图像是否为real,patchGAN一次只判断一个N×N的图像块是否为real,就好像拿着这样一个分类器在一张图像上滑动,每个小块对应的结果求平均,作为这一张图像的判别结果。这样也减小了训练中的参数量。
  • 论文中提到,这种patchGAN的设计实际上是把图像建模成马尔科夫随机场,即一个距离超过一个patch的像素是独立的,距离在一个patch之内的像素点之间才有关联。
  • 在优化D网络时乘以一个因子0.5,使得D网络相对G网络的学习速率要慢一些。(注意,实际操作时只需将D_loss乘以0.5即可实现。)
  • 采用常见的全卷积输出(Global Average Pooling 后接 Dense)。
2.4.3 训练设置
  • BN和Dropout的不同设置:
    Dropout:测试集也使用;
    BatchNorm:测试阶段不使用训练时的moving average,而直接用测试集的均值;
  • BatchSize较小,1-10(当设为1时,BN称为instance normalization);
  • 使用Adam train时,第一动量\beta_1的值设为0.5,而一般深度学习平台的默认值是0.9
  • PatchGAN中Patch设置:70。
  • GAN loss和L1 loss的比例设置:L1 loss乘以100

2.5 其他

  本文也对评价生成图像质量的指标进行了探索。其中一种评价方法是将生成的图像用在对应的vision任务上,如识别或者分割,然后用这些任务的评价指标来间接评价生成的图像质量。具体来说本文用到了一个FCN-scores。后续可能需要进一步了解。

代码实现:

  代码是学习Gluon GAN相关教程的一个pix2pix的练习。注意中文版Gluon教程后面好像没有GAN,我当时看的是英文版教程。

# coding: utf-8
import os
import pdb
import time
import logging
import mxnet as mx
import numpy as np
from os.path import join
from mxnet.gluon import nn
import matplotlib.pyplot as plt
from mxnet import gluon, nd, autograd
from mxnet.gluon.nn import Conv2D, LeakyReLU, BatchNorm, Dropout, Activation, Conv2DTranspose
from datetime import datetime

# ### Step 0: Data Preprocessing
# * 这里使用和上一节类似的`os.walk + mx.io.NDArrayIter`的套路

def preprocess_single_img(img):
    assert isinstance(img, mx.ndarray.ndarray.NDArray), "input must be NDArray type."
    img = mx.image.imresize(img, 2 * img_wd, img_ht)
    img_in = img[:,:img_wd].transpose((2,0,1)).expand_dims(0)
    img_out = img[:,img_wd:].transpose((2,0,1)).expand_dims(0)
    assert img_in.shape==(1, 3, 256, 256), "image shape not correct."
    return img_in, img_out

def load_data(data_path, batch_size, reverse=False):
    img_in_list, img_out_list = [], []
    for path, _, files in os.walk(data_path):
        for file in files:
            if not file[-4:] in ['.jpg']:
                continue
            img_arr = mx.image.imread(join(path, file)).astype(np.float32)/127.5 - 1
            img_in, img_out = preprocess_single_img(img_arr)
            if not reverse:
                img_in_list.append(img_in)
                img_out_list.append(img_out)
            else:
                img_in_list.append(img_out)
                img_out_list.append(img_in)
    return mx.io.NDArrayIter(data = [nd.concatenate(img_in_list), nd.concatenate(img_out_list)], batch_size=batch_size)

def visualize(img_arr):
    plt.imshow(((img_arr.asnumpy().transpose(1, 2, 0) + 1.0) * 127.5).astype(np.uint8))
    plt.axis('off')
def show_samples(data_iter, num_samples=4):
    img_in_list, img_out_list = data_iter.next().data
    for i in range(num_samples):
        plt.subplot(2, num_samples, i+1)
        visualize(img_in_list[i])
        plt.subplot(2, num_samples, i+num_samples+1)
        visualize(img_out_list[i])
    plt.show()

# ### Step 2 Network Design
# #### 2.1 Unet网络块定义:
# 注意:
# ①同TensorFlow一样,卷积层默认: use_bias=True
# ②Unet Block定义的基本思路:先定义好Encoder-Decoder结构,最后再hybrid_forward中将Encoder-Decoder输入特征级联到输出特征即可
# ③**除了最内层的Block,其他所有层,输入Encoder的feature map的通道数都是输入Decoder的feature map通道数的一半**
# ④BatchNorm层默认参数设置momentum为0.9,而G和D中都设置为0.1?

class UnetSkipUnit(nn.HybridBlock):
    def __init__(self, inner_channels, outer_channels, inner_block=None, innermost=False, outermost=False, use_dropout=False, use_bias=False):
        super(UnetSkipUnit, self).__init__()
        # 先定义一些基本的组件
        self.outermost = outermost
        en_conv = Conv2D(channels=inner_channels, kernel_size=4, strides=2, padding=1, in_channels=outer_channels, use_bias=use_bias)
        en_relu = LeakyReLU(alpha=0.2)
        en_bn = BatchNorm(momentum=0.1, in_channels=inner_channels)
        deconv_innermost = Conv2DTranspose(
            channels=outer_channels, kernel_size=4, strides=2, padding=1, in_channels=inner_channels, use_bias=use_bias)
        deconv_output = Conv2DTranspose(
            channels=outer_channels, kernel_size=4, strides=2, padding=1, in_channels=2*inner_channels, use_bias=True)
        deconv_common = de_conv_innermost = Conv2DTranspose(
            channels=outer_channels, kernel_size=4, strides=2, padding=1, in_channels=2*inner_channels, use_bias=use_bias)

        de_relu = Activation('relu')
        de_bn = BatchNorm(momentum=0.1, in_channels=outer_channels)
        # Unet网络块可以分为三种:最里面的,中间的,最外面的。
        if innermost:
            encoder = [en_relu, en_conv]
            decoder = [de_relu, deconv_innermost, de_bn]
            model = encoder + decoder
        elif outermost:
            encoder = [en_conv]
            decoder = [de_relu, deconv_output]
            model = encoder + [inner_block] + decoder
            model += [Activation('tanh')]
        else:
            encoder = [en_relu, en_conv, en_bn]
            decoder = [de_relu, deconv_common, de_bn]
            model = encoder + [inner_block] + decoder
        if use_dropout:
            model += [Dropout(0.5)]
        self.model = nn.HybridSequential()
        with self.model.name_scope():
            for block in model:
                self.model.add(block)
    def hybrid_forward(self, F, x):
        # 除了outermost之外的block都要加skip connection
        if self.outermost:
            return self.model(x)
        else:
            #pdb.set_trace()
            return F.concat(self.model(x), x, dim=1)

class UnetGenerator(nn.HybridBlock):
    def __init__(self, input_channels, num_downs, ngf=64, use_dropout=True):
        super(UnetGenerator, self).__init__()
        unet= UnetSkipUnit(ngf * 8, ngf * 8, innermost=True)
        for _ in range(num_downs - 5):
            unet = UnetSkipUnit(ngf * 8, ngf * 8, unet, use_dropout=use_dropout)
        unet = UnetSkipUnit(ngf * 8, ngf * 4, unet)
        unet = UnetSkipUnit(ngf * 4, ngf * 2, unet)
        unet = UnetSkipUnit(ngf * 2, ngf * 1, unet)
        unet = UnetSkipUnit(ngf, input_channels, unet, outermost=True)
        self.model = unet
    def hybrid_forward(self, F, x):
        return self.model(x)

class Discriminator(nn.HybridBlock):
    def __init__(self, in_channels, n_layers=3, ndf=64, use_sigmoid=False, use_bias=False):
        super(Discriminator, self).__init__()
        # 用下面一段代码来配置标准的2x 下采样卷积
        kernel_size=4
        padding = int(np.ceil((kernel_size-1)/2))
        self.model = nn.HybridSequential()
        # 先用一个卷积将输入转为第一层feature map
        self.model.add(Conv2D(channels=ndf, kernel_size=kernel_size, strides=2, padding=padding, use_bias=use_bias, in_channels=in_channels))
        self.model.add(LeakyReLU(alpha=0.2))

        nf_mult = 1
        for n in range(1, n_layers):
            nf_mult_prev = nf_mult
            nf_mult = min(2**n, 8)
            self.model.add(
                Conv2D(channels=ndf*nf_mult, kernel_size=kernel_size, strides=2, padding=padding, use_bias=use_bias, in_channels=ndf*nf_mult_prev),
                BatchNorm(momentum=0.1, in_channels=ndf*nf_mult),
                LeakyReLU(alpha=0.2))

        # 若layers较少,channel未达到512, 可以继续升一点维度
        nf_mult_prev = nf_mult
        nf_mult = min(2**n_layers, 8)
        self.model.add(
            Conv2D(channels=ndf*nf_mult, kernel_size=kernel_size, strides=1, padding=padding, use_bias=use_bias, in_channels=ndf*nf_mult_prev),
            BatchNorm(momentum=0.1, in_channels=ndf*nf_mult),
            LeakyReLU(alpha=0.2))
        # 输出: output channel为什么设为1?
        self.model.add(Conv2D(channels=1, kernel_size=kernel_size, strides=1, padding=padding, use_bias=True, in_channels=ndf*nf_mult))
        if use_sigmoid:
            self.model.add(Activation('sigmoid'))
    def hybrid_forward(self, F, x):
        return self.model(x)


# ### 2.4 Construct Network
# 注意:
# ①这里的loss使用binary_cross_entropy + L1 loss 作为最终的loss。L1 loss用来capture 图像中的low frequencies
# ②使用自定义的初始化方式:  (这里说的初始化均为实值初始化,而不是仅仅定义初始化方式)
# - 卷积层:
#    - $weight$: 标准差为0.02的高斯随机初始化
#    - $bias$: 全零初始化
# - BN层:
#    - 除了$gamma$之外,所有的bn参数($beta, running__mean, running__var$)初始化为0; $gamma$: **均值为1**,标准差0.02的高斯随机初始化
#
# ③这里设置的Trainer中的beta1参数是bn中的吗?bn中的beta不应该是参数而不是超参数吗? 答:是Adam中的第一动量 $β_1$

def init_param(param):
    if param.name.find('conv') != -1: # conv层的参数,包括w和b
        if param.name.find('weight') != -1:
            param.initialize(init=mx.init.Normal(0.02), ctx=ctx)
        else:
            param.initialize(init=mx.init.Zero(), ctx=ctx)
    elif param.name.find('batchnorm') != -1: #bn层的参数
        param.initialize(init=mx.init.Zero(), ctx=ctx)
        if param.name.find('gamma')!=-1:
            param.set_data(nd.random_normal(1, 0.02, param.data().shape))
def network_init(net):
    for param in net.collect_params().values():
        init_param(param)
# 正式定义网络架构
def set_networks(num_downs=8, n_layers=3, ckpt=None):
    netG = UnetGenerator(input_channels=3, num_downs=8)
    netD = Discriminator(in_channels=6, n_layers=3)
    if ckpt is not None:
        print('[+]Loading Checkpoints {} ...'.format(ckpt))
        netG.load_parameters(ckpt+'G.params', ctx=ctx)
        netD.load_parameters(ckpt+'D.params', ctx=ctx)
        print('[+]Checkpoint loaded successfully!')
    else:
        network_init(netG)
        network_init(netD)

    trainerG = gluon.Trainer(netG.collect_params(), 'adam', {'learning_rate':lr, 'beta1':beta1})
    trainerD = gluon.Trainer(netD.collect_params(), 'adam', {'learning_rate':lr, 'beta1':beta1})

    return netG, netD, trainerG, trainerD

###################### Set loss function #######################

# ## Step 3: Training Loop

# ### 3.1 为判别模型专门定义一个ImagePool,使得判别模型不仅仅比较当前的真实输入和虚假输出的损失,还要考虑历史损失

# * 理解:
#
# 首先在pool满之前,读入的每张图像都会被存储在pool的images成员变量中。同时也会返回一份给ret,用于传递到函数外面。
# pool中只能存50张images,很快就会被占满。当pool满了以后,再query一个样本时,pool可能以百分之五十的几率选择如下两种操作中的一个:
#
# ①使用读入的image替换掉images列表中的随机一张,替换得到的images中的old image被分给ret,随后返回。
# ②新的image被加入到ret中,pool中的images列表不更新
# * 问题:
#
# ①ImagePool的作用是什么?
# ②pool会对每张图像进行qurey操作,最起码有一些nd运算。这会对训练的迭代速度产生多大的影响?

class ImagePool():
    def __init__(self, pool_size):
        self.pool_size = pool_size
        if self.pool_size > 0:
            self.num_imgs = 0
            self.images = []

    def query(self, images):
        if self.pool_size == 0:
            return images
        ret_imgs = []
        for i in range(images.shape[0]):
            image = nd.expand_dims(images[i], axis=0)
            if self.num_imgs < self.pool_size:
                self.num_imgs = self.num_imgs + 1
                self.images.append(image)
                ret_imgs.append(image)
            else:
                p = nd.random_uniform(0, 1, shape=(1,)).asscalar()
                if p > 0.5:
                    random_id = nd.random_uniform(0, self.pool_size - 1, shape=(1,)).astype(np.uint8).asscalar()
                    tmp = self.images[random_id].copy()
                    self.images[random_id] = image
                    ret_imgs.append(tmp)
                else:
                    ret_imgs.append(image)
        ret_imgs = nd.concat(*ret_imgs, dim=0)
        return ret_imgs

def facc(label, pred):
    return ((pred.ravel()>0.5) == (label.ravel())).mean()
def train(lamda=100, lr_decay=0.2, period=50, ckpt='.', viz=False):
    image_pool = ImagePool(pool_size)
    metric = mx.metric.CustomMetric(facc)

    stamp =  datetime.now().strftime('%Y_%m_%d-%H_%M')
    logging.basicConfig(level=logging.DEBUG)
    #fig = plt.figure()
    for epoch in range(num_epochs):
        epoch_tic = time.time()
        btic = time.time()
        train_data.reset()
        for iter, batch in enumerate(train_data):
            real_in, real_out = batch.data[0].as_in_context(ctx), batch.data[1].as_in_context(ctx)
            fake_out = netG(real_in)
            fake_concat = image_pool.query(nd.Concat(real_in, fake_out, dim=1))
            with autograd.record():
                # Train with fake images
                output = netD(fake_concat) #?????????????????? 这里把x和fake一同送入D,是Conditional GAN的体现?如何理解这里的条件概率?
                fake_label = nd.zeros(output.shape, ctx=ctx)
                errD_fake = GAN_loss(output, fake_label)
                metric.update([fake_label,],[output,])  ## metric应该何时update???

                # Train with real images
                real_concat = image_pool.query(nd.Concat(real_in, real_out, dim=1))
                output = netD(real_concat)
                real_label = nd.ones(output.shape, ctx=ctx)
                errD_real = GAN_loss(output, real_label)
                errD = (errD_fake + errD_real) * 0.5 ## 如论文所述,D loss乘以0.5以降低相对G的更新速率
                errD.backward()
                metric.update([real_label,],[output,])
            trainerD.step(batch_size)

            with autograd.record():
                fake_out = netG(real_in)    # 这里的G为什么没有体现出Conditional GAN??  ####### 重要 #######
                #fake_concat = image_pool.query(nd.Concat(real_in, fake_out, dim=1))
                # 注意:image_pool只用于记录判别器
                fake_concat = nd.Concat(real_in, fake_out)  # Conditional GAN的先验:real_in,即 x
                output = netD(fake_concat)
                errG = GAN_loss(output, real_label) + lamda * L1_loss(real_out, fake_out)
                errG.backward()
            trainerG.step(batch_size)

            if iter % 10 == 0:
                name, acc = metric.get()
                logging.info('Epoch {}, lr {:.6f}, D loss: {:3f}, G loss:{:3f}, binary training acc: {:2f}, at iter {}, Speed: {} samples/s'.format(
                epoch, trainerD.learning_rate,  errD.mean().asscalar(), errG.mean().asscalar(), acc, iter, 0.1*batch_size/ (time.time()-btic)))
            btic = time.time()
        if epoch % period == 0:
            trainerD.set_learning_rate(trainerD.learning_rate * lr_decay)
            trainerG.set_learning_rate(trainerG.learning_rate * lr_decay)
        if epoch % 100 == 0:
            print('[+]saving checkpoints to {}'.format(ckpt))
            netG.save_parameters(join(ckpt, 'pixel_netG_epoch_{}.params'.format(epoch)))
            netD.save_parameters(join(ckpt, 'pixel_netD_epoch_{}.params'.format(epoch)))
        name, epoch_acc = metric.get()
        metric.reset()
        logging.info('\n[+]binary training accuracy at epoch %d %s=%f' % (epoch, name, epoch_acc))
        logging.info('[+]time: {:3f}'.format(time.time() - epoch_tic))


if __name__=='__main__':
#### 超参数列表
    ctx = mx.gpu(0)
    lr = 0.001
    batch_size = 10
    beta1 = 0.5  ## beta_1(第一动量)默认设置是0.9,为什么这里差别也这么大???
    pool_size = 50
    num_epochs = 500
    Dataset_Path= 'CMP_Dataset/facades/'
    img_wd, img_ht = 256, 256

    GAN_loss = gluon.loss.SigmoidBinaryCrossEntropyLoss()
    L1_loss = gluon.loss.L1Loss()

    netG, netD, trainerG, trainerD = set_networks(n_layers=2, ckpt='pixel_net')
    train_data = load_data(join(Dataset_Path,'train'), batch_size, reverse=True)
    val_data = load_data(join(Dataset_Path,'val'), batch_size, reverse=True)

    train(lamda=100, lr_decay=0.8, period=50, ckpt='pix2pix/models')
    print('[+]Training complete. Saving parameters...')
    netG.save_parameters('pixel_netG.params')
    netD.save_parameters('pixel_netD.params')

实验结果:

  • 从下图可见实验还是存在一些问题的。虽然基本上重建出了真实图像,但是有两个明显的缺点:
    ①局部地区出现了伪影 ②重建的模式趋于单一模式。

以后有时间还会继续调整参数进行实验。如果有朋友做过类似实验,还请不吝赐教~


Fig. 8.1 实验结果

Fig. 8.2 实验结果

三、参考

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容