Do Inpainting Yourself: Generative Facial Inpainting Guided by Exemplars
Wanglong Lu, Hanli Zhao, Xianta Jiang, Xiaogang Jin, Yongliang Yang, Min Wang, Jiankai Lyu, and Kaijie Shi
我们介绍了EXE-GAN,这是一个使用生成对抗网络的新型示例引导面部绘画框架。 我们的方法不仅可以保持输入面部图像的质量,还可以完成具有示例式面部属性的图像。 我们通过同时利用输入图像的全局样式、随机潜在代码生成的随机样式以及示例图像的示例样式来实现这一点。 我们引入了一种新颖的属性相似性度量,以鼓励网络以自我监督的方式从示例中学习面部属性的风格。 为了保证跨越画区边界的自然过渡,我们引入了一种新的空间变异梯度反向传播技术,根据空间位置调整损耗梯度。 在公共CelebA-HQ和FFHQ数据集上的广泛评估和实际应用验证了EXE-GAN在面部绘画视觉质量方面的优越性。
We present EXE-GAN, a novel exemplar-guided facial inpainting framework using generative adversarial networks. Our approach can not only preserve the quality of the input facial image but also complete the image with exemplar-like facial attributes. We achieve this by simultaneously leveraging the global style of the input image, the stochastic style generated from the random latent code, and the exemplar style of exemplar image. We introduce a novel attribute similarity metric to encourage netw...