正文
本文第一作者杜恒辉为中国人民大学二年级硕士生,主要研究方向为多模态大模型视听场景理解与推理,长视频理解等,师从胡迪副教授。作者来自于中国人民大学,清华大学和北京腾讯 PCG AI 技术中心。
我们人类生活在一个充满视觉和音频信息的世界中,近年来已经有很多工作利用这两个模态的信息来增强模型对视听场景的理解能力,衍生出了多种不同类型的任务,它们分别要求模型具备不同层面的能力。
过去大量的工作主要聚焦于完成单一任务,相比之下,我们人类对周围复杂的的世界具有一个通用的感知理解能力。因此,如何设计一个像人类一样对视听场景具有通用理解能力的模型是未来通往 AGI 道路上一个极其重要的问题。
当前主流的学习范式是通过构建大规模的多任务指令微调数据集并在此基础上直接做指令微调
。然而,这种学习范式对于多任务学习而言是最优的吗?
最近中国人民大学高瓴人工智能学院 GeWu-Lab 实验室,清华大学和北京腾讯 PCG AI 技术中心合作发表的 CVPR 2025 论文指出,
当前这种主流的学习范式忽视了多模态数据的异质性和任务间的复杂关系,简单地将所有任务联合训练可能会造成任务间的相互干扰。
为了有效实现任务间的显示互助,作者团队
提出了多模态大模型学习的新范式,分别从数据和模型两个角度实现了多模态场景理解任务的高效一统,并在多个场景理解任务上超过了垂类专家模型
,数据集、模型和代码全部开源。目前工作还在进一步拓展中,欢迎感兴趣的领域专家加入,共同构建一个统一的理解、生成与推理的框架。如有兴趣,请邮件联系 [email protected]。
-
论文标题:Crab: A Unified Audio-Visual Scene Understanding Model with Explicit
Cooperation
-
论文链接:https://arxiv.org/abs/2503.13068
-
项目主页:https://github.com/GeWu-Lab/Crab
统一的多模态场景理解能力展示
时序定位
输入一段音视频,让模型找到发生的音视频事件并定位出时序片段。
空间定位
输入一段音频和一张图像,让模型定位出图片中发声的物体为止。
时空推理
输入一段乐器演奏的音视频场景,让模型回答相关问题,涉及到时序和空间信息的理解以及推理。
像素级理解
输入一段音频和一张图片,让模型分割出图片中发声的物体,具体包含 S4, MS3, AVSS 和 Ref-AVS 等多种分割任务。
视觉和听觉信息是我们人类接触最多的两类信息,近年来已经有很多工作开始探究基于这两个模态的视听场景理解任务,主要可以分为时序定位、空间定位、像素级理解和时空推理等四种不同类型的任务,它们分别要求模型具备不同层面的能力。过去大量的工作聚焦于完成单一任务,相比之下,我们人类对周围复杂的世界具有一个通用的感知理解能力。因此,让模型也像人类一样具有统一的视听场景理解能力是具有重要意义的。
随着多模态大语言模型的发展,构建大规模的指令微调数据集并将各种不同的任务直接进行联合训练已经成为当前主流的学习范式。
然而,这种学习范式忽视了多模态数据的异质性和任务间的复杂关系,简单地将所有任务联合训练可能会造成任务间的相互干扰,这种现象在之前的工作中已经被证实,并且这个问题对于任务间差异较大的视听场景理解任务来说则更为重要。为了有效解决上述问题,本文分别从数据和模型的角度针对性地提出了一个统一的显示互助学习范式来有效实现任务间的显示互助。
为了明确任务间的互助关系,首先构建了一个具有显示推理过程的数据集 AV-UIE,它包含具体的时序和空间信息,可以有效建立任务间的互助关系。然后为了进一步在学习过程中促进任务间的相互协助,本文提出了一种具有多个 Head 的类 MoE LoRA 结构,每个 Head 负责学习多模态数据交互的不同层面,通过这种结构将模型的不同能力解耦,让任务间的互助关系显示地展现出来,共享的能力在不同任务间建立起相互协助的桥梁。
AV-UIE: 具有显示推理过程的视听场景指令微调数据集
从数据的角度来看,现有视听场景理解数据集的标签是简单的单词或者短语,这样简单的标签在训练过程中并不能显著地帮助到其它任务,或者说只能以一种隐式的方式增强模型的训练效果,我们并不能确保一定是对其它任务有帮助的。为了进一步地促进任务间的显示互助并将互助关系显示地体现出来,本文提出了具有显示推理过程的视听场景指令微调数据集 AV-UIE,通过细化现有数据集的标签,额外增加了显示的推理过程,其中包含具体的时空信息,这些信息明确了任务间的互助关系。
图 1. 具有显示推理过程的 AV-UIE 数集构造流程和统计分析
图 1 展示了具体的构建过程以及对数据集的统计分析,通过 in-context learning 的方式利用现有的强大的多模态大模型进行标注,从不同任务中的数据中获取音视频场景,为了保证结果的准确性和推理过程的合理性,原有数据的标签也作为输入,让 Gemini 1.5 Pro 针对该场景输出带有时序和空间等信息的显示推理过程。为了保证数据的质量,最终再由人工进行检查纠正。在训练过程中这些细化后的标签能够鼓励模型准确理解视听场景内容并输出相应的时空信息,以此来增强模型特定的能力,从而帮助到其它依赖这些特定能力的任务。图 2 展示了 AVQA 和 AVVP 这两种任务实现显示互助的数据样例,不同的颜色表示不同类型的时空信息,这两个任务都能够受益于增强后的空间定位和时序定位能力。
图 2. AVQA 和 AVVP 任务通过显示推理过程实现相互帮助的示例
AV-UIE 数据集包含九种任务的数据,总共 200K 训练样本。其中,时序定位任务包含 AVE 和 AVVP,数据占比 6.8%,空间定位任务包含 ARIG,数据占比 25.8%,像素级理解任务包含 S4,MS3,AVSS 和 Ref-AVS,数据占比 41.6%,时空理解任务包含 AVQA,数据占比 25.8%。相比于其它的指令微调数据集,尽管每一个任务的训练样本数比较小,但是在显示推理过程的帮助下,任务间的显示互助仍可以增强模型在单个任务上的性能。
Crab: 实现任务间显示互助的统一学习框架
从数据的角度保证了模型可以输出带有时序信息的显示推理过程,这是从结果上对模型进行约束,显示地增强不同类型的能力,但是如何保证模型在学习过程中可以有效地学到这些不同的能力呢?为此,本文提出了一个视听场景理解的统一学习框架,图 3 展示了模型的整体架构,主要包括三个统一的多模态接口,分别用来处理 audio, visual 和 segmentation mask 数据,一个具有 interaction-aware LoRA 结构的大模型,用于在学习过程中有效学习数据交互的不同层面从而实现任务间的显示互助。