文章目录
显示
AniTalker 是什么
这是一个创新框架,旨在从单个肖像中生成栩栩如生的说话面孔。现有模型主要关注唇形同步等语言线索,无法捕捉面部表情和非语言线索的复杂动态,与此不同的是,AniTalker 采用了通用的运动表示。这种创新的表现方式有效地捕捉了广泛的面部动态,包括微妙的表情和头部运动。 AniTalker 通过两种自监督学习策略增强运动描绘:第一种涉及从同一身份内的源帧重建目标视频帧以学习微妙的运动表示,第二种使用度量学习开发身份编码器,同时主动最小化身份之间的互信息和运动编码器。这种方法确保运动表示是动态的并且没有特定于身份的细节,从而显着减少对标记数据的需求。此外,扩散模型与方差适配器的集成允许生成多样化且可控的面部动画。这种方法不仅展示了 AniTalker 创建详细且真实的面部动作的能力,而且还强调了其在为现实世界应用制作动态头像方面的潜力。
AniTalker如何使用
演示:https://x-lance.github.io/AniTalker/
项目地址:https://github.com/X-LANCE/AniTalker
相关论文:https://arxiv.org/abs/2405.03121
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。