新开传奇私服

传奇私服发布网

当前位置:首页 > 互联网 IT业界 > 首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作

首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作

admin 互联网 IT业界 36热度

  新智元报道

  编辑:alan

  来自 UC berkeley 的研究人员开源了首个世界模型,多模态性能优秀,长视频理解吊打 GPT-4,同时将上下文长度增加到百万级别

  首个开源「世界模型」来了!

  来自 UC berkeley 的研究人员发布并开源了 LWM(LargeWorldModel)系列模型:

  论文地址:https://arxiv.org/pdf/2402.08268.pdf

  代码地址:https://github.com/LargeWorldModel/LWM

  LWM 采用了一个包含各种视频和书籍的大型数据集,利用 RingAttention 技术对长序列进行可扩展的训练,最终将上下文长度增加到 1M token。

  在超长上下文的加持下,LWM 系列模型可以轻松完成各种多模态任务,

  比如文本图像生成(LWM 基于文本提示以自回归方式生成图像):

  文本视频生成:

烟花在天空中爆炸海浪拍打着海岸

伦敦熙熙攘攘的街道,背景是红色的电话亭和大本钟桌子上的芒果切片,相机从左向右移动

一个球在空中飞舞慢动作花瓣落在地上

森林中燃烧的篝火一艘在波涛汹涌的海洋上航行的船

  基于图像的对话:

用户:如果你是一名摄影师,想要捕捉这个地点的精髓,你会选择一天中的什么时间和天气条件?描述您选择背后的原因。 LWM:我会选择日落时分的时间。这张照片的特点是一个木制码头,延伸到平静的湖面,是宁静而风景如画的场景。夕阳在湖面上投下温暖的金色光芒,增强了场景的宁静。此外,天气条件似乎是凉爽和多云的,这与湖泊和木制码头的自然美景相得益彰。这些元素的结合营造出一种视觉上吸引人且平静的氛围,将是理想的时机。

用户:描述一下不同观众如何以不同的方式解释经典艺术作品的这种创造性转折。 LWM:在对经典艺术作品的创造性转折中,女人的脸变成了狗的脸,创造了视觉上引人注目和意想不到的表现。这件艺术品可以看作是对人类理解的局限性,以及人类与动物之间更深层次的联系和理解的评论。

  观看长视频(超过一小时),并回答问题:

  即使最先进的商业模型 GPT-4V 和 Gemini Pro 也都失败了。

  虽说「世界模型」还是个概念股吧,但 LWM 展现出的多模态能力是相当优秀的。

  关键是,人家是开源的(基于 Llama2 7B),于是受到广大开发者的热烈欢迎,仅仅不到两周的时间,就在 GitHub 上斩获了 6.2k stars。

  LWM 在博客开头就展示了自己的优势区间,除了上面提到的长视频理解,下图比较了几个模型的事实检索能力:

  LWM 在 1M 上下文窗口内实现了高精度,性能优于 GPT-4V 和 Gemini Pro。

  我们可以看到,LWM 在在不同的上下文大小和位置上都保持了高精度(全绿)。

  目前,LWM 放出了一系列不同上下文大小(从 32K 到 1M)的模型,包括纯语言版本和视频语言版本。其中视觉语言模型仅在 Jax 中可用,纯语言模型在 PyTorch 和 Jax 中都可用。

  开源技术细节

  上图展示了 LWM 的多模态训练。

  第一阶段是上下文扩展,重点是使用 Books3 数据集扩展上下文大小,从 32K 增长到 1M。

  第二阶段,视觉语言培训,重点是对不同长度的视觉和视频内容进行培训。饼图详细说明了训练数据的分布情况,包括 495B 的文本-视频数据,以及 33B 的文本数据。

  图中还展示了模型的交互功能。

  语言模型阶段

  这个阶段首先开发 LWM-Text 和 LWM-Text-Chat,通过使用 RingAttention 逐步增加序列长度数据进行训练,并修改位置编码参数以考虑更长的序列长度。

  由于计算的二次复杂度所施加的内存限制,对长文档的训练非常昂贵。

  为了解决计算限制,研究人员使用 RingAttention,利用具有序列并行性的块计算在理论上扩展到无限上下文,仅受可用设备数量的限制。

  作者使用 Pallas 进一步将 RingAttention 与 FlashAttention 融合在一起,以优化性能。通常,如果每个设备有足够大的 token,RingAttention 期间的通信成本与计算完全重叠,并且不会增加任何额外的开销。

  训练步骤

  模型以 LLaMA-2 7B 为基础,分 5 个阶段逐步增加模型的有效上下文长度:32K、128K、256K、512K 和 1M。对于每个阶段,使用来自 The Pile 的 Books3 数据集的不同过滤版本进行训练。

  上表详细介绍了每个训练阶段的信息,例如 token 数量、总时间和 Books3 数据集过滤约束。每个阶段以前一个阶段作为初始化。

  研究人员还构建了一个简单的 QA 数据集,用于学习长上下文聊天能力。将 Books3 数据集中的文档分块成 1000 个 token 的固定块,将每个块提供给短上下文语言模型,并提示它生成一个关于该段落的问答对。

  对于聊天模型的微调,研究人员在 UltraChat 和自定义 QA 数据集上训练每个模型,比例约为7:3。

  作者发现将 UltraChat 数据预打包到训练序列长度至关重要,而且需要与自定义的 QA 数据示例分开。

  聊天模型并没有采用渐进式训练,而是从各自的预训练模型以相同的上下文长度进行初始化。

  视觉模型阶段

  第二阶段旨在有效地联合训练长视频和语言序列。

  LWM 和 LWM-Chat 的架构修改

  LWM 是数百万长标记序列上的自回归变换器。视频中的每一帧都用 VQGAN 产生 256 个 token。这些 token 与文本 token 连接起来,馈送到 Transformer 中,以自回归方式预测下一个 token。

  输入和输出 token 的顺序反映了不同的训练数据格式,包括图像-文本、文本-图像、视频、文本-视频和纯文本格式。

  LWM 本质上是使用多种模式以任意到任意方式进行训练的。为了区分图像和文本 token,以及进行解码,这里采用特殊的分隔符。在视觉数据中,也会处理视频的中间帧和最终帧。

  这里使用来自 aMUSEd 的预训练 VQGAN,将 256 × 256 个输入图像标记为 16 × 16 个离散 token。

  模型使用视觉和文本 token 的交错串联进行训练,并进行自回归预测。

  不同序列长度的训练

  以 LWM-Text-1M 文本模型为初始化,对大量组合的文本-图像和文本-视频数据执行渐进式训练过程,这里没有额外扩展 RoPE θ,因为它已经支持高达 1M 的上下文。

  上表显示了每个训练阶段的详细信息,每个模型是从先前较短的序列长度阶段初始化的。

  对于每个阶段,根据以下数据进行训练:

  LWM-1K:在大型文本图像数据集上进行训练,该数据集由 LAION-2Ben 和 COYO-700M 混合组成。数据集被过滤后仅包含至少 256 分辨率的图像——总共大约 1B 个文本图像对。

  在训练过程中,将文本-图像对连接起来,并随机交换模态的顺序,以对文本-图像生成、无条件图像生成和图像标题进行建模。这里将文本-图像对打包为 1K 个 token 的序列。

  LWM-8K:在 WebVid10M 和 3M InternVid10M 示例的文本视频数据集组合上进行训练。与之前的工作类似,每种模态使用相同的比例联合训练图像和视频。

  这里将图像打包成 8K token 序列和 30 帧视频,速度为 4FPS。与图像训练类似,随机交换每个文本-视频对的模态顺序。

  LWM-Chat-32K/128K/1M:在最后 3 个阶段,研究人员对每个下游任务的聊天数据组合进行训练:

文本图像生成图像理解文本视频生成视频理解

  通过对预训练数据的随机子集进行采样,并用聊天格式进行增强,构建了文本-图像和文本-视频聊天数据的简单版本。为了理解图像,这里使用来自 ShareGPT4V 的图像聊天指示。

  最后,对于视频理解聊天数据,使用 Valley-Instruct-73K 和 Video-ChatGPT-100K 指令数据的组合。对于所有短上下文数据(图像生成、图像理解、视频生成),将序列打包到训练上下文长度。

  在打包过程中,研究人员发现关键是要掩盖注意力,以便每个文本视觉对只关注自己,以及重新加权损失,以使计算与非打包+填充训练方案中的训练相同。

  对于视频理解数据,如果视频太长,会统一采样最大帧数,以适应模型的训练上下文长度。在训练期间,4 个下游任务等比例平均分配。

  尽管视觉语言模型可以摄取长视频,但由于上下文长度有限,通常是通过对视频帧执行大型时间子采样来完成的。

  例如,Video-LLaVA 被限制为从视频中均匀采样 8 帧,无论原始视频有多长。因此,模型可能会丢失更细粒度的时间信息,而这些信息对于准确回答有关视频的任何问题非常重要。

  相比之下,本文的模型是在 1M 令牌的长序列上训练的,因此,可以同时处理数千帧视频,以在短时间间隔内检索细粒度信息。在上图的示例中,LWM 正确回答了有关由 500 多个独立剪辑组成的 1 小时长 YouTube 视频的问题。

  不过作者也承认,LWM 生成的答案可能并不总是准确的,并且该模型仍在努力解决需要对视频有更高层次理解的更复杂的问题。希望 LWM 将有助于未来的工作,开发改进的基础模型,以及长视频理解的基准。

  参考资料:

  https://largeworldmodel.github.io/

更新时间 2024-05-02 03:30:28