论文介绍
随着RPG游戏的快速发展,玩家现在可以根据自己的喜好而不是使用默认模板来编辑其游戏角色的面部外观。
本文提出了一种快速鲁棒智能捏脸框架,该框架可以直接根据玩家的输入面部照片生成游戏中的角色。与此前基于神经风格迁移或单目三维人脸重建的方法不同,我们从不同的角度重新构建了角色自动创建过程:即通过在自监督学习范式下预测具有物理意义的捏脸参数。不同于此前的迭代式方法,我们通过引入了一个捏脸参数翻译器,得以直接在一次前向传播中预测捏脸参数,实现了1000倍以上的效率提升。尽管效率得到了大幅提升,可交互性仍然得以保留,玩家依旧可以根据自己的需要对捏脸结果进行微调。我们的方法还表现出比以往方法更好的鲁棒性,特别是对于头部姿态较大的照片能够获得更好的捏脸效果。
论文地址
https://arxiv.org/abs/2008.07132