GPT-5已开工!奥特曼:月入7亿不够烧,希望微软再投点

鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

月入7个亿,仍然覆盖不了训练GPT的海量投入。

这是OpenAI CEO奥特曼公开透露的最新信息。

他对《金融时报》表示,OpenAI今年收入增长良好,但公司仍未盈利。OpenAI计划继续从金主爸爸微软和其他投资者那里筹集资金——

而就在今年初,已有微软又向OpenAI投资100亿美元(分多年完成)的消息传出。

另外,山姆·奥特曼也承认,OpenAI正在开发下一代大模型GPT-5,但并未透露具体发布时间表。

和微软合作关系“运作非常好”

自GPT-3时期起,微软就已经成为OpenAI最大的金主爸爸。但双方被外界津津乐道的“双赢”关系,也并非没有波澜。

近期就一直有OpenAI与微软在销售方面产生摩擦的消息传出。

为此,在OpenAI于11月7日(北京时间)举办的首届开发者日上,奥特曼还专门拉来了微软CEO纳德拉站台,力破不和传闻。

此番,奥特曼更是积极表示,OpenAI和微软的合作关系“运行得非常好”:

我希望微软继续投资OpenAI。通往AGI(通用人工智能)的道路还很漫长,需要构建大量的计算……训练费用是非常高昂的。

有多高昂?

根据今年10月份OpenAI内部公布的数据,该公司年化营收已经达到13亿美元,折合人民币近95亿。

也就是说,OpenAI现在每月营收已经超过1亿美元(折合人民币约7亿元)

同时,ChatGPT目前每周用户数量已达到一个亿,还有200万开发人员使用其API服务。

奥特曼坦承“今年收入增长良好”,但由于大模型训练成本,OpenAI仍然没有盈利。

因此,跟微软的绑定,对于OpenAI而言依然重要,“我们双方都能从彼此的成功中获利”。

至于钱都烧到了哪里,当然包括GPT-5

奥特曼透露,GPT-5目前仍需要更多数据进行训练。

就在前几天,OpenAI还公布了新的开源数据集合作计划,表示正在寻找合作伙伴共建用于训练大语言模型的数据集:

我们对反映人类社会的大规模数据集感兴趣。

只要能表达人类意图,任何语言、主题和格式的数据我们都想要(长篇写作或对话要胜于零散的片段)。

不过GPT-5具体什么时候能面世,奥特曼并未给出时间表。

另外,OpenAI同样在大量抢购H100。

One More Thing

说起来,OpenAI创立之初定位是“非营利组织”。但在2019年,为了“生存”,OpenAI成立了一家营利公司OpenAI LP

值得注意的是,这是一家利润有上限的公司。也就是说,其基本理念是,AGI使命达成后,OpenAI的投资者们可以从公司利润中获得有上限的回报。

如果回报超过这个上限,微软等投资者的股份将无偿转让给非营利组织OpenAI Nonprofit

至于何时“实现AGI”,取决于董事会6个人的判断:OpenAI的联合创始人&总裁Greg Brockman,OpenAI首席科学家Ilya Sutskever,OpenAI CEO山姆·奥特曼,以及Quora联合创始人兼CEO Adam D’Angelo、Fellow Robots的CEO及联合创始人Tasha McCauley和- 非营利慈善机构评估组织GiveWell的联合创始人Holden Karnofsky。

参考链接:
[1]
https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded
[2]https://venturebeat.com/ai/openais-six-member-board-will-decide-when-weve-attained-agi/
[3]https://openai.com/our-structure

《2023年度十大前沿科技报告》案例征集

量子位智库《2023年度十大前沿科技报告》,启动案例征集。诚邀顶级研究机构、一流投资大咖、前沿科技创新公司,参与共创,分享案例。

扫描图片二维码参与前沿科技案例征集。了解更多细节可联系报告负责人:郑钰瑶(微信:CarolineZheng_,请备注企业+姓名)。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

相关推荐

  • 大模型手机,3999起
  • 最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100
  • 中国AIGC数据标注全景报告:百亿市场规模,百万就业缺口
  • 线下报名开启!年度科技盛会MEET2024首批嘉宾公布!
  • 14个超有趣的数据分析项目,数据集都给你整理好啦(建议收藏)
  • 云原生大数据的不同选择
  • 淘宝推荐场景的利器:融合复杂目标且支持实时调控的重排模型
  • 齐了!Data+AI的技术大佬
  • 免费使用 GPT-4,无广告,还不是套路满满!
  • 奖学金18万/年!香港科技大学(广州)数据科学与分析方向招收全奖博士生
  • TPAMI 2023 | 图神经网络在分布外图上的泛化
  • 港大联合百度 WSDM 2024 | 如何让LLMs助力推荐系统?图数据增强
  • 公司业务,全线爆发!
  • 【NLP】大模型最全八股和答案(下)
  • 【Python】如何使用Python自动运行你的代码?
  • 2023人工智能教育与产教融合高峰论坛(11月24-25日,海口)
  • 清华特奖答辩,一年一度的神仙打架来了!
  • 也看更省显存的大模型微调方法:可调参数比LoRA小10倍的VeRA实现思路
  • 深度学习attention机制中的Q,K,V分别是从哪来的?
  • 深度学习需要掌握的 13 个概率分布(附代码)