论文介绍
人脸重演的目的是将一张人脸的表情和姿态迁移到另外一张人脸上去,该任务可以用于说话头生成、虚拟形象驱动等目的。之前的部分模型需要多张源图片来训练过一个单独的网络,无法适应单张图片的情况。一些one-shot模型往往无法较好地保存原始人脸的身份信息,且生成质量较低。通过对adptive normalization的分析,我们指出先前的模型不适用于人脸重演这一任务。和之前的方法独立预测每一层参数不同,我们通过一个网络来预测所有层的adaptive 参数,这种设计能够对adaptive 参数进行全局的规划。此外,本文引入local-global机制,通过先将局部的五官迁移,然后用五官来指导生成整张脸简化了任务。实验表明,我们的方法能更好地保存原始人脸信息,生成更真实的图像。
论文地址
https://arxiv.org/abs/2102.03984
论文下载
https://arxiv.org/pdf/2102.03984.pdf