吴恩达团队新作!ManyICL

来源:机器之心

本研究评估了先进多模态基础模型在 10 个数据集上的多样本上下文学习,揭示了持续的性能提升。批量查询显著降低了每个示例的延迟和推理成本而不牺牲性能。这些发现表明:利用大量演示示例可以快速适应新任务和新领域,而无需传统的微调

论文地址:https://arxiv.org/abs/2405.09798

  • 代码地址:https://github.com/stanfordmlgroup/ManyICL

背景介绍在近期的多模态基础模型(Multimodal Foundation Model)研究中,上下文学习(In-Context Learning, ICL)已被证明是提高模型性能的有效方法之一。然而,受限于基础模型的上下文长度,尤其是对于需要大量视觉 token 来表示图片的多模态基础模型,已有的相关研究只局限于在上下文中提供少量样本。令人激动的是,最新的技术进步大大增加了模型的上下文长度,这为探索使用更多示例进行上下文学习提供了可能性。基于此,斯坦福吴恩达团队的最新研究——ManyICL,主要评估了目前最先进的多模态基础模型在从少样本 (少于 100) 到多样本(最高至 2000)上下文学习中的表现。通过对多个领域和任务的数据集进行测试,团队验证了多样本上下文学习在提高模型性能方面的显著效果,并探讨了批量查询对性能和成本及延迟的影响。Many-shot ICL与零样本、少样本ICL的比较。方法概览本研究选择了三种先进的多模态基础模型:GPT-4o、GPT4 (V)-Turbo 和 Gemini 1.5 Pro。出于 GPT-4o 优越的表现,研究团队在正文中着重讨论 GPT-4o 和 Gemini 1.5 Pro, GPT4 (V)-Turbo 的相关内容请于附录中查看。

数据集方面,研究团队在 10 个跨越不同领域(包括自然影像、医学影像、遥感影像和分子影像等)和任务(包括多分类、多标签分类和细粒度分类)的数据集上进行了广泛的实验。

基准数据集汇总。

为了测试增加示例数量对模型性能的影响,研究团队逐步增加了上下文中提供的示例数量,最高达到近 2000 个示例。同时,考虑到多样本学习的高成本和高延迟,研究团队还探索了批量处理查询的影响。在这里,批量查询指的是在单次 API 调用中处理多个查询。实验结果多样本上下文学习性能评估总体表现:包含近 2000 个示例的多样本上下文学习在所有数据集上均优于少样本学习。随着示例数量的增加,Gemini 1.5 Pro 模型的性能呈现出持续的对数线性提升,而 GPT-4o 的表现则较不稳定。

数据效率:研究测量了模型的上下文学习数据效率,即模型从示例中学习的速度。结果表明,Gemini 1.5 Pro 在绝大部分数据集上显示出比 GPT-4o 更高的上下文学习数据效率,意味着它能够更有效地从示例中学习。

批量查询的影响总体表现:在选择最优示例集大小下的零样本和多样本情境中,将多个查询合并为一次请求,不会降低性能。值得注意的是,在零样本场景中,单个查询在许多数据集上表现较差。相比之下,批量查询甚至可以提高性能。

零样本场景下的性能提升:对于某些数据集(如 UCMerced),批量查询在零样本场景下显著提高了性能。研究团队分析认为,这主要归因于领域校准 (domain calibration)、类别校准 (class calibration) 以及自我学习 (self-ICL)。

成本和延迟分析多样本上下文学习虽然在推理时需要处理更长的输入上下文,但通过批量查询可以显著降低每个示例的延迟和推理成本。例如,在 HAM10000 数据集中,使用 Gemini 1.5 Pro 模型进行 350 个示例的批量查询,延迟从 17.3 秒降至 0.54 秒,成本从每个示例 0.842 美元降至 0.0877 美元。

结论研究结果表明,多样本上下文学习能够显著提高多模态基础模型的表现,尤其是 Gemini 1.5 Pro 模型在多个数据集上表现出持续的性能提升,使其能够更有效地适应新任务和新领域,而无需传统的微调。其次,批量处理查询可以在相似甚至更好的模型表现的同时,降低推理成本和延迟,显示出在实际应用中的巨大潜力。总的来说,吴恩达团队的这项研究为多模态基础模型的应用开辟了新的路径,特别是在快速适应新任务和领域方面。——The  End——


往期精彩回顾



  • 交流群

欢迎加入机器学习爱好者微信群一起和同行交流,目前有机器学习交流群、博士群、博士申报交流、CV、NLP等微信群,请扫描下面的微信号加群,备注:”昵称-学校/公司-研究方向“,例如:”张小明-浙大-CV“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~(也可以加入机器学习交流qq群772479961



相关推荐

  • 【网传】工资到账了,比亚迪某博士实发工资曝光....
  • 一种适合 H5 屏幕适配方案
  • 一个新的 HTML 元素:
  • Llama 3.1模型开源及RAG问答最新进展:兼看角色扮演大模型、text-SQL总结
  • Python 高阶升级技巧
  • 如何快速理清复杂Python代码?
  • 语音克隆达到人类水平,微软全新VALL-E 2模型让DeepFake堪比配音员
  • 无表情人脸预测政治信仰,AI准确率惊人!斯坦福研究登国际顶刊
  • OpenAI正在「吞噬」媒体
  • 贾扬清十年经典之作获时间检验奖!ICML 2024十篇最佳论文开奖,爆火SD3、谷歌Genie在列
  • Llama 3.1横空出世!开源巨无霸首次击溃闭源,全民GPT-4时代来临
  • Java之父官宣退休前推荐,这本书每个开发者必读!
  • 大模型Infra这些年,从黑铁时代到黄金时代再到白银时代
  • 9 月生效!微软:全部中国员工禁止使用华为、小米安卓设备办公!网友解读:原因真不是系统歧视!
  • 最强开源模型 Llama-3.1 正式发布!马斯克搞了10万块H100
  • 【全网最全教程】实现大文件上传以及断点续传
  • 提升20%!京东广告模型系统负载均衡揭秘
  • 一天干了多少活儿,摸了多少鱼,这个工具一目了然给你统计出来
  • 解密列表的创建与销毁,以及缓存池长什么样子?
  • 答应我,不要再用console.log调试了