苹果“套娃”式扩散模型,训练步数减少七成!

克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

苹果的一项最新研究,大幅提高了扩散模型在高分辨率图像上性能。

利用这种方法,同样分辨率的图像,训练步数减少了超过七成。

在1024×1024的分辨率下,图片画质直接拉满,细节都清晰可见。

苹果把这项成果命名为MDM,DM就是扩散模型(Diffusion Model)的缩写,而第一个M则代表了套娃(Matryoshka)。

就像真的套娃一样,MDM在高分辨率过程中嵌套了低分辨率过程,而且是多层嵌套。

高低分辨率扩散过程同时进行,极大降低了传统扩散模型在高分辨率过程中的资源消耗。

对于256×256分辨率的图像,在批大小(batch size)为1024的环境下,传统扩散模型需要训练150万步,而MDM仅需39万,减少了超七成。

另外,MDM采用了端到端训练,不依赖特定数据集和预训练模型,在提速的同时依然保证了生成质量,而且使用灵活。

不仅可以画出高分辨率的图像,还能合成16×256²的视频。

有网友评论到,苹果终于把文本连接到图像中了。

那么,MDM的“套娃”技术,具体是怎么做的呢?

整体与渐进相结合

在开始训练之前,需要将数据进行预处理,高分辨率的图像会用一定算法重新采样,得到不同分辨率的版本。

然后就是利用这些不同分辨率的数据进行联合UNet建模,小UNet处理低分辨率,并嵌套进处理高分辨率的大UNet。

通过跨分辨率的连接,不同大小的UNet之间可以共用特征和参数。

MDM的训练则是一个循序渐进的过程。

虽然建模是联合进行的,但训练过程并不会一开始就针对高分辨率进行,而是从低分辨率开始逐步扩大。

这样做可以避免庞大的运算量,还可以让低分辨率UNet的预训练可以加速高分辨率训练过程。

训练过程中会逐步将更高分辨率的训练数据加入总体过程中,让模型适应渐进增长的分辨率,平滑过渡到最终的高分辨率过程。

不过从整体上看,在高分辨率过程逐步加入之后,MDM的训练依旧是端到端的联合过程。

在不同分辨率的联合训练当中,多个分辨率上的损失函数一起参与参数更新,避免了多阶段训练带来的误差累积。

每个分辨率都有对应的数据项的重建损失,不同分辨率的损失被加权合并,其中为保证生成质量,低分辨率损失权重较大。

在推理阶段,MDM采用的同样是并行与渐进相结合的策略。

此外,MDM利还采用了预训练的图像分类模型(CFG)来引导生成样本向更合理的方向优化,并为低分辨率的样本添加噪声,使其更贴近高分辨率样本的分布。

那么,MDM的效果究竟如何呢?

更少参数匹敌SOTA

图像方面,在ImageNet和CC12M数据集上,MDM的FID(数值越低效果越好)和CLIP表现都显著优于普通扩散模型。

其中FID用于评价图像本身的质量,CLIP则说明了图像和文本指令之间的匹配程度。

和DALL E、IMAGEN等SOTA模型相比,MDM的表现也很接近,但MDM的训练参数远少于这些模型。

不仅是优于普通扩散模型,MDM的表现也超过了其他级联扩散模型。

消融实验结果表明,低分辨率训练的步数越多,MDM效果增强就越明显;另一方面,嵌套层级越多,取得相同的CLIP得分需要的训练步数就越少。

而关于CFG参数的选择,则是一个多次测试后再FID和CLIP之间权衡的结果(CLIP得分高相对于CFG强度增大)。

论文地址:
https://arxiv.org/abs/2310.15111

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

相关推荐

  • 北大数学课,启用AI助教
  • 老黄苏妈齐聚现场!芯片巨头围观首款AI PC,联想造
  • 当AI有了审美灵魂,作画已经真假难辨了!划重点:免费
  • 全球最强CPU一夜易主,130亿参数大模型被塞进PC,没网也能生成邮件周报PPT
  • 清华&通院让AI智能体成功识破谎言!ReCon框架玩转「阿瓦隆」,三思后行+换位思考
  • LLM一句话瞬间生成3D世界,未公布代码已获141星!或将引发3D建模行业革命
  • Bengio、Hinton、张亚勤等AI大佬再发联名信!AI太危险,我们需要重新定位
  • 突发!英伟达H800/A800禁令竟提前生效,但4090意外豁免
  • 实测商汤医疗健康大模型「大医」:紧贴实际场景,可塑性超强,还能自定义提示工程!
  • DISC-FinLLM:复旦大学团队发布中文智慧金融系统,采用多专家微调框架
  • 开源版「ChatGPT Plus」来了,能做数据分析、插件调用、自动上网,落地真实世界的智能体
  • 低成本快速入局大模型,你需要学下向量数据库
  • 手机能跑百亿参数大模型,骁龙8Gen3来了,自研PC架构上线
  • LeCun又双叒唱衰自回归LLM:GPT-4的推理能力非常有限,有两篇论文为证
  • 大语言模型Fine-tuning踩坑经验之谈
  • OceanGPT:面向海洋科学的大型语言模型初探
  • 年终盘点!2023年顶会论文合集(含CVPR、ECCV、NIPS、AAAI、ACL、KDD、ICML等)
  • SFT微调的数据组合及训练策略如何影响大模型性能:4个经典问题及实验结论分享
  • 24 个常见的 Docker 疑难杂症处理技巧
  • 我准备组队学习了