Q1. Pix2pix 모델 같은 경우 이미 정답으로 존재하는 groundtruth 가 있는데 무엇을 output으로 기대하고 모델을 학습시킬까?

모델의 output은 groundtruth와 비슷하지만 다른 이미지를 생성할 수 있다. Acadia paper에서도 groundtruth의 오류를 GAN이 수정함.
Q2. Pix2pix 모델은 test 할 때 paired 한 이미지가 필요한가?
모델은 paired image를 input으로 받기 때문에 당연히 paired image로 test 해야한다.
Q3. Unpaired image로 돌릴 순 없는가?
Pix2pix 와 반대되는 모델인 cycleGAN, discoGAN이 있다.
Pix2pix 처럼 paired dataset이 있다면 좋겠지만 현실에선 정답이 존재하는 dataset을 찾기 쉽지 않다. 예를 들어, 모네 화풍의 정답 이미지는 존재하지 않음. 따라서 unpaired image로도 학습을 할 수 있게 만든 모델.
Q4. What is CycleGAN?

기존의 GAN은 X에서 Y로의 단순한 mapping을 하는 함수 G가 존재한다. 이렇게 되면 Y Domain의 이미지 처럼만 보이게 하면 되기 때문에 효과적이지 못하다. 따라서 X의 구조는 유지하되 Y로 style만을 바꾸기 위해 다시 Y에서 X로 돌아오는 mapping도 고려한다.

Q5. What is DiscoGAN?

CycleGAN은 스타일 변형에 초점을 두었다면 DiscoGAN은 형태 변형에 초점을 두었다. 대신, 학습이 어렵고 해상도가 떨어지나 형태 변형은 자유롭다.
REF https://taeoh-kim.github.io/blog/image2image/
Q6. GAN은 왜 만들어졌을까?
CNN, RNN 등 큰 성공을 거두었던 deep discriminative model(정답이 있고 분류하는 지도학습) 과는 달리 deep generative model은 maximum likelihood estimation에서 다룰수 없는 확률적인 계산때문에 어려움이 있었다. 따라서, generative model의 실패를 피하기 위해 discriminative model을 사용함.
REF https://www.facebook.com/goaistep/posts/333321837103818/
GAN종류 32가지…(in AllGAN code)






































