刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁


  新智元报道  

编辑:编辑部
【新智元导读】初创团队Mistral AI再次放出一条磁力链,281GB文件解禁了最新的8x22B MoE模型。

一条磁力链,Mistral AI又来闷声不响搞事情。

281.24GB文件中,竟是全新8x22B MOE模型!

全新MoE模型共有56层,48个注意力头,8名专家,2名活跃专家。

而且,上下文长度为65k。

网友纷纷表示,Mistral AI一如既往靠一条磁力链,掀起了AI社区热潮。

对此,贾扬清也表示,自己已经迫不及待想看到它和其他SOTA模型的详细对比了!

靠磁力链火遍整个AI社区

去年12月,首个磁力链发布后,Mistral AI公开的8x7B的MoE模型收获了不少好评。

基准测试中,8个70亿参数的小模型性能超越了多达700亿参数的Llama 2。

它可以很好地处理32k长度的上下文,支持英语、法语、意大利语、德语和西班牙语,且在代码生成方面表现出强大的性能。

今年2月,最新旗舰版模型Mistral Large问世,性能直接对标GPT-4。

不过,这个版本的模型没有开源。

Mistral Large具备卓越的逻辑推理能力,能够处理包括文本理解、转换以及代码生成在内的复杂多语言任务。

也就是半个月前,在一个Cerebral Valley黑客松活动上,Mistral AI开源了Mistral 7B v0.2基础模型。

这个模型支持32k上下文,没有滑动窗口,Rope Theta = 1e6。

现在,最新的8x22B MoE模型也在抱抱脸平台上上线,社区成员可以基于此构建自己应用。

参考资料:https://twitter.com/MistralAI/status/1777869263778291896


相关推荐

  • 物理学再失伟人!94岁诺奖得主、「上帝粒子」之父希格斯离世
  • 谷歌向微软英特尔全面宣战!首款自研Arm CPU,最强大模型公测,AI视频对垒Sora
  • 今日代码大赏 | Java 使用递归反转句子
  • 又踩坑了,BigDecimal 的 5 个坑!
  • 好低调!字节Dreamina全面开放内测了,效果够惊艳吗?Ta眼中的“Sora女士”原来是这样!
  • 万变不离AI!直击 Google Cloud Next 2024 大会更多细节,不只Gemini 1.5 Pro !
  • Devin背后技术浮出水面!居然是OpenAI推出新版本GPT-4 Vision!网友:这视觉版本,正是我想要的!
  • 奖金丰厚!AI4S Cup系列比赛—“超声CT成像中的声场预测”报名启动
  • ​一个大模型建模所有图结构关系!港大等发布最新图大语言模型HiGPT
  • 马云内网发帖:肯定阿里一年改革动作
  • 天天用 antd 的 Form 组件?自己手写一个吧
  • 英特尔突袭英伟达H100,新AI芯片训练快40%,推理快50%,CEO蹦迪庆祝
  • 谷歌最强大模型免费开放了!长音频理解功能独一份,100万上下文敞开用
  • 开源模型首胜GPT-4!竞技场最新战报引热议,Karpathy:这是我唯二信任的榜单
  • AI算力提高,高能耗和难散热问题如何突破?
  • 离谱!AI超市「无人」收款,1000个印度人藏在背后……
  • 英伟达竞品来了,训练比H100快70%,英特尔发最新AI加速卡
  • Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
  • Llama架构比不上GPT2?神奇token提升10倍记忆?
  • 全面突围,谷歌昨晚更新了一大波大模型产品