벽이 더 두꺼운dataset 300개를 rhino와 pythonscript를 사용하여 생성하였다. 64×64 size 이며 line을 이전보다 두껍게 하였다. 9번째 epoch에서 loss=100으로 변경되었고 다시 loss가 바뀌지 않는 현상이 계속 됨 같은 dataset으로 GAN training 결과 흑백반전이 일어났지만 왜 이렇게 training 되었는지는…?
글쓴이 아카이브:jiyeonlab
DCGAN #6
input size를 64로 놓고 진행해보았다. 저번 dataset인 몬드리안 이미지 보다 수직선과 수평선 각각 하나로 구성되어 있는 비교적 간단한 dataset을 50개 정도 생성하였다. 다음은 training 결과이다. epoch=10, batch size = 5, dataset = 50
DCGAN #5
Input image size 변경하기 해상도가 높은 건축도면 특성상 Input dataset 의 사이즈를 64×64 에서 512로 변경하려고 코드를 수정했다. ValueError: Target and input must have the same number of elements. target nelement (5) != input nelement (4205) 에러가 발생하여 featuremap 변수 하나씩 변경 결국, discriminator의 구조를 바꾸어야 error에 표시되는 input element 숫자가 바뀌는 것을 알 수“DCGAN #5” 계속 읽기
DCGAN #4
dataset의 개수를 다르게 설정하여 돌려보았다. dataset = 130 dataset = 230 dataset=330
DCGAN #3
input size 를 130개로 늘리고 epoch 100으로 진행해보았다. Loss 값이 Loss_D: 0.0000 Loss_G: 37.5550 D(x): 1.0000 D(G(z)): 0.0000 / 0.0000 Generator의 loss가 37~39 사이의 값에서 벗어나지 못하는 현상이 발생
DCGAN #2
Rhino를 사용하여 만들었던 512×512 크기의 dataset을 DCGAN에 그대로 적용해보았다. GAN과 비교하여 달라진 코드 부분 Generator와 Discriminator 의 layer 구성 이미지 크기 64×64 우선 코드 실행을 위해 512×512 dataset을 64×64로 수정했다. 문제점 noise 가 많고 RGB 값을 제대로 처리하지 못 한다. 예상되는 해결방안 이미지 크기를 512×512로 수정 RGB 파일을 Grayscale로 수정 layer network 수정 batch size,“DCGAN #2” 계속 읽기
DCGAN #1
Pytorch Tutorial https://tutorials.pytorch.kr/beginner/blitz/neural_networks_tutorial.html Deep Learning tutorial DCGAN tutorial https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html
GAN tutorial #8
용어 정리 epoch: 모든 데이터 셋을 한 번 학습 iteration: epoch을 1번 하는데 반복되는 횟수 batch-size: 1번의 single batch에서 사용된 데이터 크기 ex> 총 학습할 데이터가 100, batch-size = 10 이라면 iteration =10 1 epoch = 10 batch size X 10 iteration 이다. 실험 조건: RGB-> Grayscale, batch =6, epoch = 100
GAN tutorial #7
GAN accuracy 향상을 위한 수정 방법 data manipulation batch=2, epoch =5, shuffle=True 2. Learning rate 0.0002 -> 0.2 더 빠르게 loss 값이 수렴함 3. Network 512×256 256×256 256×64 3개의 layer로 구성되어 있었던 모델을 9개의 깊은 layer로 구성했다. training 결과 loss 값이 멈춰있지 않고 계속 변화한다.
GAN tutorial #6
이번에는 Rhino를 사용하여 몬드리안의 작품과 비슷한 데이터셋을 만들어보고 training을 해보았다. dataset: 512×512 30개 (Rhino python script를 사용, 랜덤한 수직선과 수평선의 조합) Training 역시나 이전과 같이 d_loss: 27.6310, g_loss: 0.0000, D(x): 1.00, D(G(z)): 1.00 에서 머물러 있는 현상이 발생하였다. 이번에는 첫 번째 epoch 이 끝난 후 local loss gradient 현상 발생 result image