Paper Review: GANILLA
Hicsonmez, Samet, et al. “GANILLA: Generative adversarial networks for image to illustration translation.” Image and Vision Computing 95 (2020): 103886.
Introduction
- 생산적 적대 신경망 (Generative Adversarial Network, GAN) 기반 아동도서의 삽화 (illustration) 스타일 이미지 변환
- 일반적인 그림과 만화와 다르게 사물이 포함되지만 추상화 수준이 매우 높음
- 기존 모델 (CycleGAN, DualGAN)을 통해 추상화 스타일과 삽화의 내용 간 균형을 다루는데 한계점 존재
- Goal: 주어진 일러스트 작가의 스타일을 전달하며 주어진 이미지의 콘텐츠를 보존하는 생성기 개발
- 정렬되지 않은 두 개의 개별 image dataset $\rightarrow$ Unpaired approach
- Source domain (natural images)
- Target (illustrations)
- 스타일과 콘텐츠의 불균형 문제
- Residual layer에서 특징 맵을 다운 샘플링하여 새로운 생성기 네트워크 제시
- 콘텐츠를 더 잘 전송하기 위해 skip connection 및 upsampling 사용 $\rightarrow$ 낮은 수준의 feature을 높은 수준의 feature와 병합
- 정렬되지 않은 두 개의 개별 image dataset $\rightarrow$ Unpaired approach
- Unpaired style transfer approach의 evaluation
- 일반적으로 image-to-image translation 모델의 평가는 정성적
- 생성된 이미지에 대해 짝지어진 ground-truth가 존재하지 않아 직접적으로 정량적 평가 불가
- 콘텐츠 및 스타일 분류기 기반 정량적 평가 프레임워크 제안
- Highlights
- Image-to-image style and content transfer의 새로운 연구
- 24명의 아티스트에 대한 약 9500개의 illustration으로 구성된 dataset 제공
- 스타일과 콘텐츠의 균형이 맞는 새로운 generator network 제안
- 콘텐츠와 스타일 측면에서 이미지 생성 모델의 새로운 정량적 평가 프레임워크 제안