计算机视觉中的 GAN - 使用 Wasserstein 距离、博弈论控制和渐进式增长方案改进训练

计算机视觉中 GAN 的第三篇文章系列 - 我们遇到了一些最先进的训练概念,例如 Wasserstein 距离,在 GAN 训练中采用了博弈论方面,并研究了增量/渐进式生成训练以达到百万像素分辨率。

来源:AI夏令营
    有关本系列所有论文和文章的完整列表,请查看我们的 Git repo
  • 有关本系列所有论文和文章的完整列表,请查看我们的 Git repo
  • Git repo

    我们已经看到了计算机视觉生成学习中许多重要的工作。GAN 主导着深度学习任务,例如图像生成和图像翻译。在上一篇文章中,我们达到了理解非配对图像到图像转换的程度。我们从分割图中生成了高质量的图像,反之亦然。然而,在实现自己的超酷深度 GAN 模型之前,您必须了解一些非常重要的概念。在本部分中,我们将介绍一些基础工作。我们将看到最常见的 gan 距离函数及其工作原理。然后,我们将把 GAN 的训练视为寻找双人游戏均衡的尝试。最后,我们将看到一项革命性的增量训练工作,它首次实现了真实的百万像素图像分辨率。

    发布 最常见的 GAN 距离函数 真实的百万像素图像分辨率

    我们将探索的研究主要解决模式崩溃和训练不稳定性问题。从未训练过 GAN 的人很容易争辩说我们总是参考这两个轴。在现实生活中,为新问题训练大规模 GAN 可能是一场噩梦。这就是为什么我们想要提供最好的和引用最多的参考书目来应对它们。

    模式崩溃 为新问题训练大规模 GAN 可能是一场噩梦 训练新颖的 GAN 当你离开最常见的数据集(CIFAR、MNIST、CELEBA)时,你就会陷入混乱。

    核心思想

    核心思想 模型分布与真实分布有多接近 地球移动 (EM) 距离

    理解 Wasserstein 距离

    wiki 上确界 sup) S S 有序 T T T S S 上界。 T T G D S W(Pr,Pθ)=sup∣∣f∣∣L≤1[Ex∼Pr[f(x)]−Ex∼Pθ[f(x)]]W(P_r,P_{\theta}) = sup_{||f||_{L}\leq1}[E_{x\sim P_r} [f(x)] - E_{x\sim P_\theta}[f(x)] ] W ( Pr P r , P θ ) = s u p∣∣f∣∣L≤1 p ∣∣f∣∣L≤1