新开传奇私服

传奇私服发布网

当前位置:首页 > 互联网 IT业界 > 魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

admin 互联网 IT业界 42热度

  RWKV 投稿

  量子位公众号 QbitAI

  不走 Transformer 寻常路,魔改 RNN 的国产新架构 RWKV,有了新进展:

  提出了两种新的 RWKV 架构,即 Eagle (RWKV-5) 和 Finch(RWKV-6)。

  这两种序列模型以 RWKV-4 架构为基础,然后作了改进。

  新架构的设计进步包括多头矩阵值状态(multi-headed matrix-valued states)和动态递归机制(dynamic recurrence mechanism),这些改进提高了 RWKV 模型的表达能力,同时保持 RNN 的推理效率特征。

  同时,新架构引入了一个新的多语言语料库,包含 1.12 万亿个令牌。

  团队还基于贪婪匹配(greedy matching)开发了一种快速的分词器,以增强 RWKV 的多语言性。

  目前,4 个 Eagle 模型和 2 个 Finch 模型,都已经在抱抱脸上发布了~

  新模型 Eagle 和 Finch

  此次更新的 RWKV,共包含 6 个模型,分别是:

  4 个 Eagle(RWKV-5)模型:分别为 0.4B、1.5B、3B、7B 参数大小;

  2 个 Finch(RWKV-6)模型:分别是 1.6B、3B 参数大小。

  Eagle 通过使用多头矩阵值状态(而非向量值状态)、重新构造的接受态和额外的门控机制,改进了从 RWKV-4 中学习到的架构和学习衰减进度。

  Finch 则通过引入新的数据相关函数,进一步改进架构的表现能力和灵活性,用于时间混合和令牌移位模块,包括参数化线性插值。

  此外,Finch 提出了对低秩自适应函数的新用法,以使可训练的权重矩阵能够以一种上下文相关的方式有效地增强学习到的数据衰减向量。

  最后,RWKV 新架构引入了一种新的分词器 RWKV World Tokenizer,和一个新数据集 RWKV World v2,两者均用于提高 RWKV 模型在多语言和代码数据上的性能。

  其中的新分词器 RWKV World Tokenizer 包含不常见语言的词汇,并且通过基于 Trie 的贪婪匹配(greedy matching)进行快速分词。

  而新数据集 RWKV World v2 是一个新的多语言 1.12T tokens 数据集,取自各种手工选择的公开可用数据源。

  其数据组成中,约 70% 是英语数据,15% 是多语言数据,15% 是代码数据。

  基准测试结果如何?

  光有架构创新还不够,关键要看模型的实际表现。

  来看看新模型在各大权威评测榜单上的成绩——

  MQAR 测试结果

  MQAR(Multiple Query Associative Recall)任务是一种用于评估语言模型的任务,旨在测试模型在多次查询情况下的联想记忆能力。

  在这类任务中,模型需要通过给定的多个查询来检索相关的信息。

  MQAR 任务的目标是衡量模型在多次查询下检索信息的能力,以及其对不同查询的适应性和准确性。

  下图为 RWKV-4、Eagle、 Finch 和其他非 Transformer 架构的 MQAR 任务测试结果。

  可以看出,在 MQAR 任务的准确度测试中, Finch 在多种序列长度测试中的准确度表现都非常稳定,对比 RWKV-4、RWKV-5 和其他非 Transformer 架构的模型有显著的性能优势。

  长上下文实验

  在 PG19 测试集上测试了从 2048 tokens 开始的 RWKV-4、Eagle 和 Finch 的 loss 与序列位置。

  (所有模型均基于上下文长度 4096 进行预训练)。

  测试结果显示, Eagle 在长序列任务上比 RWKV-4 有了显著的改进,而在上下文长度 4096 训练的 Finch 的表现比 Eagle 更好,可以良好地自动适应到 20000 以上的上下文长度。

  速度和显存基准测试

  速度和内存基准测试中,团队比较了 Finch、Mamba 和 Flash Attention 的类 Attention 内核的速度和显存利用率。

  可以看到,Finch 在内存使用方面始终优于 Mamba 和 Flash Attention,而内存使用量分别比 Flash Attention 和 Mamba 少 40% 和 17%。

  多语言任务表现

  日语

  西班牙语

  阿拉伯语

  日语-英语

  下一步工作

  以上研究内容,来自 RWKV Foundation 发布的最新论文《Eagle and Finch:RWKV with Matrix-Valued States and Dynamic Recurrence》。

  论文由 RWKV 创始人 Bo PENG(彭博)和 RWKV 开源社区成员共同完成。

  共同一作彭博,毕业于香港大学物理系,编程经验 20+ 年,曾在世界最大外汇对冲基金之一 Ortus Capital 就职,负责高频量化交易。

  还出版过一本关于深度卷积网络的书籍《深度卷积网络·原理与实践》。

  他的主要关注和兴趣方向在软硬件开发方面,在此前的公开访谈中,他曾明确表示 AIGC 是自己的兴趣所在,尤其是小说生成。

  目前,彭博在 Github 有 2.1k 的 followers。

  但他的最主要公开身份是一家灯具公司禀临科技的联合创始人,主要是做阳光灯、吸顶灯、便携台灯什么的。

  并且其人应该是一个喵星人资深爱好者,Github、知乎、微信头像,以及灯具公司的官网首页、微博上,都有一只橘猫的身影。

  量子位获悉,RWKV 当前的多模态工作包含 RWKV Music(音乐方向)和 VisualRWKV(图像方向)。

  接下来,RWKV 的重点工作将放在以下几个方向:

扩展训练语料库,使其更加多样化(这是改进模型性能的关键事项); 训练和发布更大版本的 Finch,如 7B 和 14B 参数,并通过 MoE 降低推理和训练成本,进一步扩展其性能。 对 Finch 的 CUDA 实现做进一步优化(包括算法改进),带来速度的提升和更大的并行化。

  论文链接:

  https://arxiv.org/pdf/2404.05892.pdf

更新时间 2024-05-01 13:30:19