这个面部3D重建模型,造出了6000多个名人的数字面具

  马克斯·普朗克计算机科学研究所、斯坦福大学等近期提出了一种新型的面部三维重建模型,效果惊艳。该模型基于自监督学习,使用了来自 YouTube 抓取的 6000 多个名人的视频片段进行训练;其能以任意帧数重建人脸面部,适用于单目和多帧重建。特别是,该模型可以完全从零开始学习,将面部的多种特征分离再重新组合,结构化程度很高。

  人脸除了没有皱纹以外,身份特征和面部表情都和原人相当一致,阴影效果也高度还原。只是眼睛部分似乎不太对,显得浑浊无神,看看视频会更清楚。

  这个合成效果也很不错,表情动态很到位。只是可能原人的眼神实在太有戏,AI 也表示无力模仿。

  值得注意的是,这个面部重建模型的 pipeline 很复杂,但又几乎无处不在使用深度学习。重建面部不能很好地还原皱纹,可能是因为自监督学习过程中多帧图像面部动作的正则化作用,但从另一方面来看,这也使得身份重建更加鲁棒。

  FML (short version)自动播放

  00:54

  简言之,研究者把面部分解成了反照率、三维几何形状和光照等特征,再进行组合重建。如下图所示,overlay 是最终合成结果。

  图 1:本文提出了基于 in-the-wild 视频数据的深度网络的多帧自监督训练,以联合学习面部模型和 3D 面部重建。该方法成功地解纠缠了面部形状、外观、表情和场景光照。

  如下图所示,研究者还提供了 200 多个重建结果展示。

  展示地址:https://gvv.mpi-inf.mpg.de/projects/FML19/visualizeResults.html

  以下是和其它已有方法的比较。从图中的效果看来,该模型合成的各种特征都能很好地贴合面部,不受侧面视角影响。

扫描二维码关注公众号,回复: 4889162 查看本文章

  图 6:与 Tewari 等人 [59] 的方法比较。当面部大部分被遮挡时,该方法也优于 Tewari 等人的方法。

  除了还原度以外,其相对于其它方法可以更好地分离不同特征。

  图 8:与 Tran 等人 [62] 的方法对比。我们可以估计更好的几何形状,并将反射与光照分离。注意 Tran 等人的方法不能分离反射和光照(或阴影)。

  研究者使用了 VoxCeleb2 多帧视频数据集来训练模型。该数据集包含从 Youtube 抓取的 6000 多个名人的超过 140k 部视频。他们一共从这个数据集采样了 N=404k 的多帧图像第 l 个多帧图像由 M=4 帧的从同一部视频中的同一个人提取组成的,以避免不必要的变化,例如年龄和饰物。

  引言

  从视觉数据重建面部在视觉和图形中具有广泛的应用,包括面部跟踪、情感识别以及与多媒体相关的交互式图像/视频编辑任务。面部图像和视频无处不在,因为智能设备、消费者和专业相机提供了连续且几乎无穷无尽的来源。当在没有受控场景定位、照明或侵入式设备(例如,自我中心照相机或演员身上的动作追踪标记)的情况下捕获这样的数据时,其属于「in-the-wild」图像。通常,in-the-wild 数据具有低分辨率、噪声或包含运动和焦点模糊,使得重建问题比在受控设置中更难。来自 in-the-wild 单目 2D 图像和视频数据的三维人脸重建涉及解纠缠面部形状身份(中性几何)、皮肤外观(或反照率)和表情,以及估计场景光照和相机参数。其中一些属性,例如反照率和光照,在单目图像中不易分离。此外,由于面部毛发、太阳镜和大幅头部旋转导致的不良场景照明、深度模糊以及遮挡使得 3D 面部重建变得复杂化。

  为了解决困难的单目三维人脸重建问题,大多数现有方法依赖于现有的强大的先验模型,这些模型充当了其他不适定问题的正则化因子。尽管这些方法实现了令人印象深刻的面部形状和反照率重建,但其使用的面部模型引入了固有的偏差。例如,3D Morphable Model(3DMM)基于相对较小规模的白种人演员的 3D 激光扫描集,从而限制了泛化到一般的现实世界身份和种族。随着基于 CNN 的深度学习的兴起,人们已经提出了各种技术,其除了 3D 重建之外还从单目图像执行面部模型学习。然而,这些方法严重依赖于已有的 3DMM 来解决单目重建设置的固有深度模糊。而有另一些工作就不需要类似 3DMM 的面部模型,基于照片集。然而,这些方法需要同一个目标的非常大量(例如,≈100)的面部图像,因此它们对训练集有很高的要求。

  在本文中,研究者介绍了一种方法,该方法使用从互联网视频中抓取的剪辑来学习全面的人脸身份模型。该面部身份模型包括两个部分:一个部件表征面部身份的几何形状(modulo expressions),另一个部件表征根据反照率的面部外观。由于其对训练数据的要求很低,该方法可以使用几乎无穷无尽的社区数据,从而获得具有更好泛化性的模型,而用激光扫描类似的一大群人进行模型建造几乎是不可能的。与大多数以前的方法不同,该模型不需要已有的形状标记和反照率模型作为初始化,而是从头开始学习。因此,该方法适用于没有现有模型,或者难以从 3D 扫描创建这样的模型(例如,对于婴儿的面部)的情况。

  从技术角度来看,本研究的主要贡献之一是提出了新型的多帧一致性损失,这确保了面部身份和反照率重建在同一主体的帧之间是一致的。通过这种方式,可以避免许多单目方法中存在的深度模糊,并获得更准确和更鲁棒的面部几何和反照率模型。此外,通过在本研究的学习面部识别模型和现有的 blendshape expression 模型之间强加正交性,该方法可以自动将面部表情从基于身份的几何变化中解纠缠,而不需要求助于大量的手工制作的先验。

  总之,本研究基于以下技术贡献:

  一种深度神经网络,其从包含每个目标的多个帧的无约束图像的大数据集中学习面部形状和外观空间,例如多视图序列,甚至单目视频。

  通过投影到 blendshapes 的 nullspace 上进行显式的混合形状(blendshape)和身份的分离,从而实现多帧一致性损失。

  基于 Siamese 网络的新型多帧身份一致性损失,具有处理单目和多帧重建的能力。  郑州治疗不孕不育哪家好:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州哪家不孕不育医院好:http://jbk.39.net/yiyuanzaixian/zztjyy/

猜你喜欢

转载自blog.csdn.net/qq_39443136/article/details/86358574