WGAN - ChaeyeonSon/PaperReading GitHub Wiki

Wasserstein GAN

https://arxiv.org/pdf/1701.07875.pdf


1. Introduction

  • problem: unsupervised learning
  • P_r density를 예측하기보단 random 변수 Z를 고정 분포 p(z)로 정의하고 generator로 보내면 특정 분포를 만들어내는데 파라미터를 다양하게 해서 실제 데이터 분포에 가까워지게 할 수 있다.
  • 장점 1. low dimensional manifold 로 분포 제한가능 2. 쉽게 샘플을 만들어내는 능력이 density아는 것보다 유용.
  • VAE(approximate likelihood of example에 집중)와 GAN(objective function의 정의가 더 유연하지만 delicate and unstable)이 예시
  • measure how close the model distribution and the real distribution are(on the various ways to define a distance or divergence)
  • continuity = sequence of parameters θt가 θ로 수렴
  • θ → Pθ mapping이 continuous인 것은 연속적인 θ → ρ(Pθ, Pr) (=distance) 를 loss function으로 갖고자 하려는데 이와 동일.
  • contribution
    • (Sec2)theoretical analysis of how Earth Mover(EM) distance 가 popular probability distances and divergences 와 비교해서 어떻게 행동하는지.
    • (Sec3)WGAN을 정의하여 합리적이고 효율적인 EM distance의 approximation을 minimize
    • (Sec4)WGAN이 GAN의 main training problem 해결, discriminator와 generator의 careful balance 유지가 필요하지 않고, network architecture도 not careful.

2. Different Distances

image space가 [0,1]^d일 때
image

image

??어렵다 강의 듣고 다시 정리


3. Wassertein GAN