论文介绍
人脸重演的目的是将一张人脸的表情和姿态迁移到另外一张人脸上去,该任务可以用于说话头生成、虚拟形象驱动等目的。之前的部分模型需要多张源图片来训练过一个单独的网络,无法适应单张图片的情况。一些one-shot模型往往无法较好地保存原始人脸的身份信息,且生成质量较低。
本文将图卷积引入人脸重演任务中,首先通过重建人脸三角网格获取人脸的表情和姿态信息,再通过图卷积生成光流图,最后生成的光流图用于图像变形来使得源图片和驱动图片对齐,并最终生成对应表情的人脸。由于人脸模型(3DMM)的人脸形状和人脸表情是解耦的,我们能够通过交换人脸形状系数来保存原始人脸的身份信息。主观和量化实验都表明提出的模型达到了state of art. 该模型只需要提供任意一张源图片和驱动图片。除了在图片生成质量方面有较大提升外,该模型在生成的表情和姿态的准确性上有一定提升。
论文地址
https://dl.acm.org/doi/10.1145/3394171.3413865