37项SOTA!全模态预训练范式MiCo:理解任何模态并学习通用表示|港中文&中科院

MiCo团队 投稿
量子位 | 公众号 QbitAI

GPT-4o掀起一股全模态(Omni-modal)热潮,去年的热词多模态仿佛已经不够看了。

要构建全模态智能,意味着能够理解任何模态并学习通用表示 (Universal Representations)。

现在,港中文、中科院等提出了一种大规模的全模态预训练范式,称为多模态上下文MiCo(Multimodal Context),它可以在预训练过程中引入更多的模态,数据量,模型参数。

借助 MiCo,团队预训练的模型在多模态学习中表现出极为令人印象深刻的性能,在目前主流的三大类任务上的评估结果显示出:

  • 10种不同模态的单模态感知基准。

  • 25种跨模态理解任务,包括检索、问答、描述。

  • 18种多模态大型语言模型基准,MiCo取得了37项最强性能的记录。

大规模全模态预训练

在AI的发展历程中, 大规模的预训练已经逐渐成为一种非常有前景的途径来实现通用智能(譬如大规模训练的GPT-4o, LLaMA, Stable Diffusion)。

其中图文对比学习是社区最有影响力的预训练方法之一,比如,CLIP构建起了数百万的图文数据对来实现跨模态的对比学习。

研究者将这样的对比学习范式推广到了更多的数据模态上(音频,点云)同时也实现了更深入的语义理解(LLaVA, VideoChat)。

但是在这多模态与AIGC的时代里,越来越多的数据模态(比如,音频,3D内容等)被广泛使用时,仅限于图文预训练的基础模型带来了包括多模态错位、误解、幻觉和偏见放大等问题,这些难题都阻碍了连贯的多模态理解(coherent multimodal understanding)。

因此,团队希望提出一种能适用于全模态(不局限于仅图文音视频3D内容)的大规模预训练方法,如图所示,团队将视频与相配对的音频、文字描述、深度还有法线进行联合预训练。

如何设计全模态预训练中的神经网络结构?

参考人脑中多模态认知的过程,如下图所示,根据理查德·梅耶的多媒体学习认知理论(Richard E Mayer. Multimedia learning. In Psychology of learning and motivation, volume 41,305 pages 85–139. Elsevier, 2002.),人脑对耳朵和眼睛的感知内容(图/文/视频/音频/3D)有两个不同的通道来处理他们的感觉记忆

感觉记忆通过文字将这些多模态信号与先验知识整合在一起,将新的多媒体信息转化为长期记忆。

由此团队能推断:1)大脑中的多媒体信号共享感知通道,2)文字在大脑中充当推理接口。

受此启发,团队将不同的模态分为两类:“知识模态”“接口模态”

知识模态主要来自原始传感器,以不同的形式贡献知识。例如,图像和深度图提供视觉知识,而音频和视频提供听觉和时空知识。人类语言模态本质上更为抽象,自然地作为了接口模态,促进大脑学习、推理和知识的协调。

为此,团队设计了一个全模态学习架构(详细严谨的结构设计见文3.2),如上图 (b) 所示,它有两个不同的分支:一个用于知识模态,一个用于接口模态,即自然语言。知识和界面模态通过一种新颖的生成推理方法进行对齐(见方法3.4)。

大规模的全模态预训练算法:多模态上下文与多模态尺度定律(Scaling Law)

“上下文”这一概念在本文指的是在注意力机制为序列中的每个标记分配一个唯一向量来强化了位置之间的潜在关联。

不同的模态(例如,文本、图像、音频)提供了互补信息,因此学习多模态的上下文可以更全面、细致地理解数据,还可以利用每种模态的优势,引导模型理解不同类型信息之间的交互。因此,团队寻求构建跨越不同模态的上下文关系,使得模态之间能够相互增强(见下图)并将学习能力扩展到全模态。

多模态配对数据中的多模态上下文

首先团队构建了多模态配对数据的数据集 (图像,深度,法线,图像的配对文字,音频,音频配对文字,视频,视频配对文字)。

然后使用一个全模态编码器(ViT) 提取多模态特征,然后使用文本编码器提取文本特征。通过自上而下的设计构建多模态上下文关系:

  1. 对于整个多模态Embeddings,它们共享一套位置编码,以构建跨越不同模态的融合上下文关系。
    2.然后,对于每个特定模态的上下文,它们通过不同的模态标记来指示模态类别。

  2. 在同一模态上下文中,团队使用单独的上下文编码构建单一模态上下文关系(详见原文)上下文编码取决于特定模态的样本长度。

同时,不同模态的配对文本内容可以简单的拼接起来,其位置编码同样是共享的:

多数据集中的多模态上下文:图-文/音频-文字/视频-文字等

团队提出的范式还可以利用现有的大规模文本-图像、文本-音频和文本-视频数据集,共同预训练模型来学习通用表征。给定数据集 图文/音频-文字/视频-文字数据集,每对数据拥有局部的简单的上下文,例如,图文数据对在CLIP中仅对应一个简单的上下文,这可能会限制模型学习表征(工程中增大Batch Size来缓解)。团队提出通过跨数据集的联合采样,使用采样编码(Sampling Embeddings) 标记同一个数据集的配对数据,再层次化地在多数据之间构建多模态上下文。

通过这种方式,团队成功地结合了现有的多种跨模态数据集,通过构建更通用和复杂的多模态上下文(见上述公式)来预训练模型,从而实现更好的泛化学习能力、更完善的模态扩展性和数据扩展性来超越现有的预训练方法。

实验结果

10种单模态感知基准: 7项SOTA

25种跨模态检索、问答、描述基准: 20项SOTA

18种多模态大模型问答基准:10项SOTA


结论

在本文中,团队提出了一个新的大规模预训练框架 MiCo,用于训练具有全模态理解能力的基础模型。通过大规模的实验,团队得出结论,全模态学习的关键是模拟人脑的多模态认知过程。在 MiCo中,团队使用RGB图像、深度和法线图来模拟人类视觉认知的基本视觉感知能力、距离空间感知和几何感知。

此外,文字描述、音频和视频提供先验知识、听觉感知,时空感知能力,有效地提升了模型的对于多模态信息的理解能力,在未来的工作中,团队计划通过结合其他更多模态来继续增强全模态联合预训练,包括光流、IMU 数据和事件文件等。

团队相信MiCo中多模态上下文预训练算法是人工智能模拟人脑多模态认知的重要尝试,团队期待它能够启发未来的工作,开发更强大的全模态基础模型。

项目网站:https://invictus717.github.io/MiCo/
开源代码:https://github.com/invictus717/MiCo
Hugging Face模型:https://huggingface.co/Yiyuan/MiCo-ViT-g-14-omnimodal-300k-b64K

—  —


投稿请发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容

附上论文/项目主页链接,以及联系方式哦

我们会(尽量)及时回复你


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

相关推荐

  • 1分钟内完成报销核对,微软AI Day现场展示Copilot生产力革命
  • 北大快手攻克复杂视频生成难题!新框架轻松组合各种细节,代码将开源
  • Hinton为拒马斯克offer扯谎挂电话,警告AI取代人类比想象中快30年
  • 打通智能体「自我进化」全流程!复旦推出通用智能体平台AgentGym
  • ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐
  • Transformer升级之路:RoPE的底数设计原则
  • LLM+推荐:训练推理新范式!
  • 小红书图数据库在分布式并行查询上的探索
  • Meta新模型NLLB获Nature盛赞,200种濒危语言高质量翻译,「不让任何语言掉队」
  • 代码都让AI写,CS还有前途吗?加州大学伯克利分校:CDSS申请人数飙升48%!
  • GPT-4不是世界模型,LeCun双手赞同!ACL力证LLM永远无法模拟世界
  • 50个案例带你学会AI视频制作
  • 每日AI资讯-20240616
  • 高质量3D生成最有希望的一集?GaussianCube在三维生成中全面超越NeRF
  • AI将是数学家的得力助手,陶哲轩谈AI在证明过程中的潜力
  • 新一轮「硬件彩票」:MatMul-free 会改变大模型的游戏规则吗?
  • 星环科技孙元浩:语料已经是大模型最大的挑战
  • ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了
  • 【深度学习】大规模DiT模型部署轻松拿下!港中文等提出TerDiT:性能不输全精度模型
  • 官宣!2024影响因子即将发布,将引入学科类别的统一排名,简化对期刊评估!