已开源!可控视频生成新SOTA,给定参考人物图像即可定制高质量跳舞视频


随着视频生成技术的不断进步,可控跳舞视频合成也逐渐成为一项非常有吸引力的任务,受到了很多研究者的关注。给定一张参考人物图像和一段人体姿态序列,该任务旨在生成遵循给定的条件的时序连续且高保真的视频。


最近,来自华中科技大学、阿里巴巴、中国科学技术大学的研究团队提出了一种名为 UniAnimate 的全新框架,通过统一视频扩散模型来实现高效且长时的跳舞视频生成。该框架克服了目前可控跳舞视频合成领域高效性和保真度瓶颈,性能优于 MagicAnimate、Animate Anyone、Champ 等,为使用者带来了更广泛的应用前景。

论文地址:

https://arxiv.org/abs/2406.01188

项目主页:

https://unianimate.github.io/

Github地址:https://github.com/ali-vilab/UniAnimate


传统的跳舞视频合成技术通常采样类似于 ControlNet 的范式,需要一个额外的参考模型来对齐身份图像和主干视频分支,这增加了优化负担和模型参数。另外,生成的视频通常时间较短,限制了实际应用的可能性。

为了解决这些问题,UniAnimate 采用了一种统一的架构。不同于之前的方法采用 ControlNet-like 的架构,需要额外的 ReferenceNet 来编码参考图像表观特征来进行表观对齐。


UniAnimate 框架首先将参考图像、姿势指导和噪声视频映射到特征空间中,然后利用统一的视频扩散模型(Unified Video Diffusion Model)同时处理参考图像与视频主干分支表观对齐和视频去噪任务,实现高效特征对齐和连贯的视频生成。另外,引入了参考图像的姿态图作为额外的参考条件,促进网络学习参考姿态和目标姿态之间的对应关系,实现良好的表观对齐。


其次,研究团队还提出了一种统一的噪声输入,其支持随机噪声输入和基于第一帧的条件噪声输入,随机噪声输入可以配合参考图像和姿态序列生成一段视频,而基于第一帧的条件噪声输入(First Frame Conditioning)则以视频第一帧作为条件输入延续生成后续的视频。通过这种方式,推理时可以通过把前一个视频片段(segment)的最后一帧当作后一个片段的第一帧来进行生成,并以此类推在一个框架中实现长视频生成。


最后,为了进一步高效处理长序列,研究团队探索了基于状态空间模型(Mamba)的时间建模架构,作为原始的计算密集型时序 Transformer 的一种替代。实验发现基于时序 Mamba 的架构可以取得和时序 Transformer 类似的效果,但是需要的显存开销更小。


实验结果:

上表展示了 UniAnimate 方法和现有的先进方法在 TikTok 数据集上的对比,UniAnimate 方法在图片指标如 L1、PSNR、SSIM、LPIPS 上和视频指标 FVD 上都取得了最好的结果,说明了 UniAnimate 可以生成高保真的结果。

和现有方法的定性对比实验也可以看出,相比于 MagicAnimate、Animate Anyone,提出的 UniAnimate 方法可以生成更好的连续结果,没有出现明显的 artifacts,表明了 UniAnimate 的有效性。


最后来看下 UniAnimate 的生成视频:


1. 基于合成图片进行跳舞视频生成:





2. 基于真实图片进行跳舞视频生成:



3. 基于粘土风格图片进行跳舞视频生成:



4. 马斯克跳舞:



5. 基于其他跨域图片进行跳舞视频生成:


6. Yann LeCun跳舞:


可以看出 UniAnimate 可以针对不同领域来源的图片,生成高质量且连续的视频结果。获取更多高清视频示例和一分钟时长的生成视频请参考论文的项目主页:https://unianimate.github.io/

更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


···

相关推荐

  • 港大、北大等发布最新综述:一文解析生成技术在时空数据挖掘中的应用
  • 智源联合多所高校推出首个多任务长视频评测基准MLVU
  • 多样化数据源助力AI模型训练
  • AI模型训练加速沙龙来杭州啦!
  • 电商知识图谱建设及大模型应用探索
  • 号称 “颜值天花板” 的剪切板工具,长什么样?
  • 什么是熔断降级?说 4 种解决方案
  • “土猪拱白菜” 的学霸张锡峰,如今也苦于卷后端
  • 大爆冷!17岁中专生吊打一众名校生!
  • 马斯克 · 特斯拉2024年度股东大会 · 图文完整版3万字(附全程精校视频)
  • 17岁中专少女,全球第12名,闯进阿里巴巴全球数学竞赛决赛!
  • 吴恩达的新项目,我给加上了国产大模型 API
  • 【深度学习】深入浅出,图解自注意力机制(Self-Attention)
  • 大模型prompt工程及Text2SQL方案总结:从数据集、模型策略及评测基准角度
  • CleverCSV,一个神奇的 python 库
  • 全网炸裂!17岁中专女生进阿里全球数学竞赛12强,英雄不问出处!
  • 一口气说出 Redis 16 个常见使用场景 !
  • 聊一聊搜推广粗排思考
  • 2024 年,全球大学计算机专业排名
  • 博士生抓住同门往自己培养基里倒酒精,整个实验室被拖垮,自己延毕