奥特曼深夜发动价格战,GPT-4o mini暴跌99%!清华同济校友立功,GPT-3.5退役


  新智元报道  

编辑:编辑部
【新智元导读】GPT-4o mini深夜忽然上线,OpenAI终于开卷小模型!每百万输入token已达15美分的超低价,跟GPT-3相比,两年内模型成本已降低99%。Sam Altman惊呼:通往智能的成本,已变得如此低廉!另外,清华同济校友为关键负责人。

OpenAI,也开始进军小模型了。

就在今天深夜,GPT-3.5退场,全新发布的GPT-4o mini,更小、性能更强,更重要的是——更便宜!

GPT-3.5,再见!

每百万个输入token 15美分,每百万个输出token 60美分,MMLU得分82%,性能超快。

CEO Sam Altman感慨道:通往智能的成本,竟是如此低廉。

是的,如火如荼的大模型价格战,OpenAI也入场了。

Altman回顾说:就在2022年,世界上最好的模型是还是text-davinci-003(GPT-3的版本)。

但如今,与这个新模型相比,text-davinci-003差得太多太多。甚至,价格要高出100倍。

相较于GPT-3.5,GPT-4o mini性能更强,价格还要便宜60%以上,成本直线下降。

大模型的成本,两年间下降了99%,等再过几年呢?简直不敢想。

以前,用OpenAI模型构建应用程序可能会产生巨额费用,没有能力对其修改的开发者,极有可能放弃它,转投更便宜的模型,比如谷歌的Gemini 1.5 Flash或者Anthropic的Claude 3 Haiku。

如今OpenAI终于等不住,出手了。

现在,所有人都可以在ChatGPT中用上GPT-4o mini了。

小模型,但对标GPT-4 Turbo


GPT-4o mini的知识更新到去年10月,语言种类和GPT-4o对齐,上下文窗口为128k。

目前在API中仅支持文本和视觉模态,未来还将扩展到视频和音频的输入/输出。

虽然没有披露参数规模,但OpenAI的官博文章表示,这是他们目前最经济、最有成本效益的小模型,微调功能也将很快上线。

神奇的是,GPT-4o mini在LMSYS排行榜上聊天偏好方面的表现甚至优于GPT-4。在总榜上,排名可以和GPT-4 Turbo匹敌。

上周模型还没发布,就已经有超过6000名用户投票给早期版本「upcoming-gpt-mini」,但目前该模型的结果已经被撤下。

LMSYS在推特上宣布,正在重新收集投票,很快就会发布正式版模型的成绩。

GPT0-4o mini的发布,显然将大幅扩展AI应用的范围。

它不仅低成本、低延迟,还支持广泛的任务,比如链式或并行调用多个模型的应用(调用多个 API),向模型传递大量上下文(完整代码库或对话历史),或通过快速、实时的文本响应与客户互动(支持聊天机器人)。

并且,由于与GPT-4o共享改进的分词器(tokenizer),它处理起非英语文本会更加经济高效。

目前,GPT-4o mini在API中支持文本和视觉,未来还将支持多模态功能,包括文本、图像、视频和音频的输入和输出。

听起来,它像是功能更强大的虚拟助理,比如了解我们的旅行行程并给出建议。

文本、数学、编码、多模态,效果拔群


在文本智能和多模态推理方面,GPT-4o mini已经超越了GPT-3.5 Turbo和其他小模型,GPT-4o支持的语言它也都支持。

长上下文处理性能上,它比起GPT-3.5 Turbo也有所改进。

在函数调用上,GPT-4o mini同样表现出色,因此开发者可以更方便地构建应用。

看一下GPT-4o mini的关键基准测试成绩。

推理任务

文本和视觉推理任务上,GPT-4o优于其他小模型。

在MMLU上,它的得分为82.0%,而Gemini Flash为77.9%,Claude Haiku为73.8%。

数学和编码能力

在数学推理和编码任务中,GPT-4o同样表现出色,优于市场上的小模型。

在MGSM上,在MGSM上,GPT-4o mini得分为87.0%,而Gemini Flash为75.5%,Claude Haiku为71.7%。

在HumanEval上,GPT-4o mini得分为87.2%,而Gemini Flash为71.5%,Claude Haiku为75.9%。

多模态推理

GPT-4o mini在MMMU上也表现强劲,得分为59.4%,而Gemini Flash为56.1%,Claude Haiku为 50.2%。

实测表明,无论是从收据文件中提取结构化数据,还是根据邮件线程生成高质量回复,GPT-4o mini在这类任务上的表现都明显比GPT-3.5 Turbo更好。

这也印证了业界一直在讨论的观点:模型的大小,并不重要。

性价比极高


在性价比方面,Artificial Analysis已经为我们整理出了详细的分析。

GPT-4o mini的定价为:输入每1M token 15美分,输出每1M token 60美分。

1M token什么概念?大致相当于2500页书。

这个价格已经卷到了头部模型的最低档,仅次于Llama 3 8B。

从下表中可以看到,在目前头部厂商发布的所有小模型中,GPT-4o mini超越Gemini 1.5 Flash、Llama 3 8B、Mistral 7B等众多竞品,成为性价比之最。

越靠近左上的模型,性价比越高

不仅是性价比最好,GPT-4o mini在输出的速度和质量上也实现了目前SOTA水平的优化权衡,甚至比GPT-4o更佳。

将质量和生成速度分开来看,效果依旧能打。

Artificial Analysis上的质量指数代表Chatbot、MMLU和MT-Bench等基准的归一化平均性能。

GPT-4o mini得分为85,和Gemini 1.5 Flash、Llama 3 70B基本处于同一水平,胜过Mixtral系列的8×22B和8×7B型号。

MMLU的得分也基本与质量指数一致,但比较亮眼的是在HumanEval编码任务上的评分。

87.2分的成绩,超过了谷歌系最强模型Gemini 1.5 Pro!

推理效率方面,183 token/s的生成让GPT-4o mini成为这个榜单上的绝对王者,相比第二名Gemini 1.5 Flash还要快18 token/s。

除了生成速度,目前API的响应延迟(TTFT)也算优秀,虽然没打过Phi-3、Llama 3 7B等小模型,但差距也不算太大。

在响应延迟和token生成速度上,GPT-4o mini都有非常优秀的成绩,但需要注意的是,这两个指标与推理所用的硬件规格高度相关,而且模型仅开放API,并没有第三方进行部署后的测评。

模型发布之后,GPT-4o mini能否始终保持这样的高效率推理,更值得期待。

除了生成质量和推理效率,GPT-4o mini在上下文长度方面算是中规中矩,毕竟GPT-4o也才128k,没法和最长1M的Gemini系列抗衡。

「真正实现OpenAI使命」


「我认为GPT-4o mini真正实现了OpenAI的使命——让人们更广泛地接触AI。如果我们希望AI惠及世界每个角落、每个行业、每个应用程序,我们就必须让AI变得更便宜。」API平台产品负责人Olivier Godement这样介绍。

使用Free、Plus、Team套餐的ChatGPT用户,现在都可以使用GPT-4o mini了,企业用户也可以在下周获得访问权限。

对于ChatGPT用户,GPT-3.5已经消失,但开发者仍能通过API调用GPT-3.5。

不过,GPT-3.5也将在某一时间从API中退役,但具体时间点还不确定。

对于渴望低成本构建应用的开发者来说,GPT-4o mini来得太及时了。

金融初创公司Ramp在测试中,用它构建了提取收据上费用的工具,不必费力浏览文本框,模型就会自动对所有内容排序。

显然,OpenAI不想再让开发者流失到更便宜的Claude 3 Haiku和Gemini 1.5 Flash。

但是,OpenAI为什么花了这么久?

Godement表示,这涉及到一个「优先考虑」的问题。

此前OpenAI专注于GPT-4这样的大模型,而随着时间的推移,OpenAI终于注意到了开发者们渴望对小模型的愿景,才终于决定投入资源。

OpenAI非常有信心,GPT-4o mini一定会非常受欢迎。

网友:LLM变小,竞争加剧


Sclaing Law要卷,小模型也要卷。

一大早,不仅OpenAI放出了GPT-4o mini,另一边Mistral联手英伟达推出12B小模型Nemo,性能赶超Gema和Llama-3 8B。

Karpathy对此表示,「大模型的参数规模竞争正在加剧……但方向是相反的」!

他预测,我们将会看到非常小,但「思考」得非常好且可靠的模型。通过调整GPT-2参数,很可能存在一种特定的设置方式,因此GPT-2可能会表现的更好,以至于让大多数人认为它很聪明。


当前LLM如此庞大的原因是,我们在训练过程中非常浪费——我们要求它们记住整个互联网,令人惊讶的是,它们确实做到了,比如可以背诵常见数字的SHA哈希值,或者回忆起非常冷僻的事实。(实际上,大模型在记忆方面非常出色,质量上远胜于人类,有时只需要一次更新就能记住大量细节并保持很长时间)。


但是,想象一下,如果你要在闭卷考试中,根据前几句话背诵互联网上的任意段落。这是今天模型的标准(预)训练目标。做得更好的难点在于,在训练数据中,思考的展示与知识「交织」在一起的。因此,模型必须先变大,然后才能变小,因为我们需要它们(自动化)的帮助,将训练数据重构并塑造成理想的合成格式。


这是一个阶梯式的改进过程——一个模型帮助生成下一个模型的训练数据,直到我们拥有「完美的训练集」。当你用它训练GPT-2时,它将成为今天标准下非常强大/聪明的模型。也许MMLU会稍微低一些,因为它不能完美地记住所有的化学知识。也许它需要偶尔查阅一些东西以确保准确。

HuggingFace创始人表示,「这个星期是小模型的一周」。

OpenAI研究员Hyung Won Chung表示,「虽然我们比任何人都更喜欢训练大模型,但OpenAI也知道如何训练小模型」。

网友对当前地表最强模型的价格进行了汇总:

作为参考,如果你想对美国24小时内所说或所听到的每一个单词进行推理,仅需要花费不到20万美元。

不过,最近比较火的陷阱题——9.11和9.9究竟谁大,进化后的GPT-4o mini依然失败了。

几天前,刚完成进化后的AutoGPT,也可以正式支持GPT-4o mini。

Altman本人在评论区中,预告了GPT-4o语音功能Alpha版本将在本月末上线。

当然,所有人还是更期待GPT-5上线。

在OpenAI设想的未来里,模型将会被无缝集成到每一个应用程序和每一个网站之上。

如今,随着GPT-4o mini的推出,为开发者更高效、更经济地构建和扩展强大的AI应用铺平道路。

可以看到,AI正在变得更容易访问、可靠,并会融入到所有人的日常体验中。

而OpenAI,会继续引领这一进程。

作者介绍


GPT-4o的作者名单,也是长到让人印象深刻。

其中,项目负责人是Mianna Chen

Mianna Chen曾在普林斯顿大学取得了学士学位。2020年,她获得了宾夕法尼亚大学沃顿商学院MBA学位。

入职OpenAI之前,她在2015年加入谷歌任职近3年,中间还跳槽至一家初创Two Sigma,随后再次入职DeepMind任职1年多产品主管。

其他负责人为Jacob Menick,Kevin Lu,Shengjia Zhao,Eric Wallace,Hongyu Ren,Haitang Hu,Nick Stathas,Felipe Petroski Such。

Kevin Lu

Kevin Lu获得了加州大学伯克利分校电子工程和计算机科学学士学位,曾与Pieter Abbeel和Igor Mordatch合作研究强化学习和序列建模。在校期间,他还担任过助教,在伯克利人工智能研究院担任本科研究员。目前,他已入职OpenAI,成为了一名研究员。

Shengjia Zhao

Shengjia Zhao是斯坦福大学计算机科学系的博士,本科毕业于清华大学。

获得博士学位后,Shengjia Zhao直接加入了OpenAI,担任技术研究员,至今已有2年多的时间。

目前,他主要从事大语言模型的训练和对齐工作,负责ChatGPT的研究。

Haitang Hu

Haitang Hu在霍普金斯约翰大学取得了计算机硕士学位,此前还在同济大学获得了计算机科学和技术学士学位。

本科毕业后,他加入了NS Solution公司,任职3年系统工程师。随后,进入霍普金斯约翰大学继续攻读。

2016年取得硕士学位后,Haitang Hu入职谷歌,就职7年工程师。直到23年9月,他正式加入了OpenAI。

参考资料:https://artificialanalysis.ai/models/gpt-4o-mini
https://x.com/karpathy/status/1814038096218083497https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/


相关推荐

  • 13个漂亮的登录页面,附源代码地址
  • 30s到0.8s,记录一次接口优化成功案例!
  • 45K*16薪,这波跳槽不亏。。。
  • 大模型知识机理与编辑专场 | 7月23日 19:00直播
  • 公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
  • 15 年功臣、英伟达首席科学家在股价巅峰期黯然辞职:手握大笔财富,但我为我的工作感到遗憾
  • 经五轮面试终于拿到微信的offer,却只能无奈放弃
  • Vue 组件管理的新趋势!以后可能不再需要组件库了?
  • 重磅推荐:一个开源的即时通讯应用 Tailchat
  • 两个各有特长的即时通讯开源项目
  • 2024年最新的50个AI工具来了,网友评论:yyds!这也太好用了!
  • 2B业务的苦与乐: 白鲸开源CEO对话神策CEO桑文锋
  • 聊一聊字符串常见操作的源码实现
  • 高性能短链设计
  • 推荐几个适合Java开发者的免费IDEA插件
  • 如何解决 WebClient Connection Reset by Peer错误
  • 【超实用攻略】SpringBoot + jackson 轻松搞定数据脱敏
  • 六年了,我终于成为了 Kaggle GrandMaster 。
  • 涨见识!!!谁说PLC轮询通信很简单???
  • 29.3K Star重生!!!一个前端UI框架的大起大落