Q1. Pix2pix 모델 같은 경우 이미 정답으로 존재하는 groundtruth 가 있는데 무엇을 output으로 기대하고 모델을 학습시킬까? 모델의 output은 groundtruth와 비슷하지만 다른 이미지를 생성할 수 있다. Acadia paper에서도 groundtruth의 오류를 GAN이 수정함. Q2. Pix2pix 모델은 test 할 때 paired 한 이미지가 필요한가? 모델은 paired image를 input으로 받기 때문에 당연히 paired image로 test 해야한다. Q3. Unpaired image로“What is GAN?” 계속 읽기
글쓴이 아카이브:jiyeonlab
Pix2pix
dataset을 돌리면서 train 과 test data의 차이점이 궁금하여 다른 pix2pix 모델에도 같은 dataset을 적용해보았다. Pix2pix https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix Training environment: epoch 10, dataset example 10 더 많은 dataset 으로 Training 결과 필요 다른 dataset 생성
Generate new Dataset #3
Pytorch 환경에서 opencv 를 사용하여 256 사이즈의 이미지 2장을 horizontal 방향으로 concatenate 시켜서 1장의 이미지로 만들었다. Training data = 10 validation data= 3 epoch = 200(임의로) epoch=3/200일때 남은시간 2시간 2분 Result
Generate new Dataset #2
새로운 Dataset 만들기 Pix2pix 모델의 dataset 예시이다. ground truth 사진과 input 사진 순서대로 붙여서 사용한다. (width = 256+256, height = 256) Input 은 건축 플랜의 Sketch 형태를 만들어야 하므로 rhino에서 Explode Hatch()와 DeleteObjects() 함수를 사용하여 벽의 선만 남기고 모든 object 들을 제거했다. pix2pix 모델 dataset 예시처럼 사진의 크기를 256 사이즈로 변환시켰다. 이전보다 선의 굵기를 굵게“Generate new Dataset #2” 계속 읽기
Generate new Dataset
I generated new Dataset that contains Window and GlassWall just like a real floor plan using Rhino6. Result of DCGAN
Thinking of my GAN research
GAN 사용 예시: https://machinelearningmastery.com/impressive-applications-of-generative-adversarial-networks/ (2019.06) Generate Examples for Image Datasets Generate Photographs of Human Faces Generate Realistic Photographs Generate Cartoon Characters Image-to-Image Translation Text-to-Image Translation Semantic-Image-to-Photo Translation Face Frontal View Generation Generate New Human Poses Photos to Emojis Photograph Editing Face Aging Photo Blending Super Resolution Photo Inpainting Clothing Translation Video Prediction 3D Object Generation“Thinking of my GAN research” 계속 읽기
CityGAN #2
코드를 실행하기 위해 환경을 설정해주었다. Github에서 다운받은 코드를 Google Colab 폴더에 업로드하였다.
CityGAN
CityGAN paper Github demo code gan.py code
DCGAN #9
DCGAN #8
setting environment https://www.researchgate.net/publication/328280126_Architectural_Drawings_Recognition_and_Generation_through_Machine_Learning 위의 Acadia paper의 setting environment를 살펴보면, 115 images 사용(100개 training, 15개 testing) 1 epoch with 100 images: 80 seconds 총 80 epochs DCGAN Google Colab 환경 MNIST dataset을 다운로드하여 data storage을 확인하였다. 빈 공간은 76.77GB, 약 1KB 이미지 3000장을 upload 한 결과 0.01GB 감소