魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

RWKV 投稿
量子位 | 公众号 QbitAI

不走Transformer寻常路,魔改RNN的国产新架构RWKV,有了新进展:

提出了两种新的RWKV架构,即Eagle (RWKV-5) 和Finch(RWKV-6)

这两种序列模型以RWKV-4架构为基础,然后作了改进。

新架构的设计进步包括多头矩阵值状态(multi-headed matrix-valued states)动态递归机制(dynamic recurrence mechanism),这些改进提高了RWKV模型的表达能力,同时保持RNN的推理效率特征。

同时,新架构引入了一个新的多语言语料库,包含1.12万亿个令牌。

团队还基于贪婪匹配(greedy matching)开发了一种快速的分词器,以增强RWKV的多语言性。

目前,4个Eagle模型和2个Finch模型,都已经在抱抱脸上发布了~

新模型Eagle和Finch

此次更新的RWKV,共包含6个模型,分别是:

4个Eagle(RWKV-5)模型:分别为0.4B、1.5B、3B、7B参数大小;
2个Finch(RWKV-6)模型:分别是1.6B、3B参数大小。

Eagle通过使用多头矩阵值状态(而非向量值状态)、重新构造的接受态和额外的门控机制,改进了从RWKV-4中学习到的架构和学习衰减进度。

Finch则通过引入新的数据相关函数,进一步改进架构的表现能力和灵活性,用于时间混合和令牌移位模块,包括参数化线性插值。

此外,Finch提出了对低秩自适应函数的新用法,以使可训练的权重矩阵能够以一种上下文相关的方式有效地增强学习到的数据衰减向量。

最后,RWKV新架构引入了一种新的分词器RWKV World Tokenizer,和一个新数据集RWKV World v2,两者均用于提高RWKV模型在多语言和代码数据上的性能。

其中的新分词器RWKV World Tokenizer包含不常见语言的词汇,并且通过基于Trie的贪婪匹配(greedy matching)进行快速分词。

而新数据集RWKV World v2是一个新的多语言1.12T tokens数据集,取自各种手工选择的公开可用数据源。

其数据组成中,约70%是英语数据,15%是多语言数据,15%是代码数据。

基准测试结果如何?

光有架构创新还不够,关键要看模型的实际表现。

来看看新模型在各大权威评测榜单上的成绩——

MQAR测试结果

MQAR (Multiple Query Associative Recall)任务是一种用于评估语言模型的任务,旨在测试模型在多次查询情况下的联想记忆能力。

在这类任务中,模型需要通过给定的多个查询来检索相关的信息。

MQAR任务的目标是衡量模型在多次查询下检索信息的能力,以及其对不同查询的适应性和准确性。

下图为RWKV-4、Eagle、 Finch和其他非Transformer架构的MQAR任务测试结果。

可以看出,在MQAR任务的准确度测试中, Finch在多种序列长度测试中的准确度表现都非常稳定,对比RWKV-4、RWKV-5和其他非Transformer架构的模型有显著的性能优势。

长上下文实验

在PG19测试集上测试了从2048 tokens开始的RWKV-4、Eagle和Finch的loss与序列位置。

(所有模型均基于上下文长度4096进行预训练)

测试结果显示, Eagle在长序列任务上比RWKV-4有了显著的改进,而在上下文长度4096训练的Finch的表现比Eagle更好,可以良好地自动适应到20000以上的上下文长度。

速度和显存基准测试

速度和内存基准测试中,团队比较了Finch、Mamba和Flash Attention的类Attention内核的速度和显存利用率。


可以看到,Finch在内存使用方面始终优于Mamba和Flash Attention,而内存使用量分别比Flash Attention和Mamba少40%和17%。

多语言任务表现

日语

西班牙语

阿拉伯语

日语-英语

下一步工作

以上研究内容,来自RWKV Foundation发布的最新论文《Eagle and Finch:RWKV with Matrix-Valued States and Dynamic Recurrence》

论文由RWKV创始人Bo PENG(彭博)和RWKV开源社区成员共同完成。

共同一作彭博,毕业于香港大学物理系,编程经验20+年,曾在世界最大外汇对冲基金之一Ortus Capital就职,负责高频量化交易。

还出版过一本关于深度卷积网络的书籍《深度卷积网络·原理与实践》。

他的主要关注和兴趣方向在软硬件开发方面,在此前的公开访谈中,他曾明确表示AIGC是自己的兴趣所在,尤其是小说生成。

目前,彭博在Github有2.1k的followers。

但他的最主要公开身份是一家灯具公司禀临科技的联合创始人,主要是做阳光灯、吸顶灯、便携台灯什么的。

并且其人应该是一个喵星人资深爱好者,Github、知乎、微信头像,以及灯具公司的官网首页、微博上,都有一只橘猫的身影。

量子位获悉,RWKV当前的多模态工作包含RWKV Music(音乐方向)和 VisualRWKV(图像方向)

接下来,RWKV的重点工作将放在以下几个方向:

  • 扩展训练语料库,使其更加多样化(这是改进模型性能的关键事项)

  • 训练和发布更大版本的Finch,如7B和14B参数,并通过MoE降低推理和训练成本,进一步扩展其性能。

  • 对Finch的CUDA实现做进一步优化(包括算法改进),带来速度的提升和更大的并行化。

论文链接:

https://arxiv.org/pdf/2404.05892.pdf

报名参会倒计时 ⏰

4月17日,中国AIGC产业峰会

只需一天,感受AIGC新应用正在引领的科技新范式!

来自产品、技术、投资等领域最主流的“玩家”代表和投资人,将在4月17日中国AIGC产业峰会,与你共同探讨AIGC正在重塑的新世界。了解更多峰会详情。

欢迎报名参会 ⬇️

峰会将全程线上下同步直播,欢迎预约直播 ⬇️


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


相关推荐

  • 突发!OpenAI开除Ilya盟友,理由:涉嫌信息泄漏
  • 谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩
  • GPT-4升级被曝引入Q*,推理/数学更强废话更少,竞技场重夺王位
  • 小微公司可用的开源ERP系统
  • 识读2300多年的战国竹简,竟只用2B端侧大模型!面壁发布新一代“小钢炮”
  • MIT等首次深度研究「集成LLM」预测能力:可媲美人类群体准确率
  • 谷歌大脑DeepMind「婚后」貌合神离,Hassabis怨气冲天!1+1<1
  • GPT-4 Turbo重回王座,ChatGPT免费升级!数学暴涨10%/上下文全面碾压
  • OpenAI内斗第二弹!Ilya亲信、超级对齐团队2人惨遭开除,被批泄密
  • 吴恩达预言成真?这群AI「员工」狂卷KPI
  • 冷知识:开源协议BSD License是北师大许可证的缩写
  • 𝕏自动将用户帖子里的Twitter.com改为X.com
  • 五个“宝藏”开源项目,带你用Three.js玩转3D可视化
  • Atlassian开源最强“实用”前端拖拽组件:性能和兼容性俱佳、支持跨窗口拖动、适用于任何前端框架
  • 大湾区的明星打车平台要IPO了
  • 美团面试:如何检测和避免线程死锁?
  • Spring Boot集成webflux快速入门Demo
  • 美国空军如何在 45 天内在 F-16 战机上部署 Kubernetes 和 Istio
  • 甲骨文宠儿力压GPT-4斩获竞技场首胜,不绑定厂商,不做聊天机器人,Transformer最年轻作者带飞大模型创业新星
  • 中小银行数据治理做不好,是问责机制和考评绩效体系的“锅”?