如何高效桥接视觉和语言,字节&中大提出全新多模态大模型连接器ParGo

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

在多模态大语言模型(MLLMs)的发展中,视觉 – 语言连接器作为将视觉特征映射到 LLM 语言空间的关键组件,起到了桥梁作用。因此,它几乎成为了所有多模态大语言模型中不可或缺的结构之一。然而,如何高效地将视觉特征映射到 LLM 的探索还有很大提升空间。


字节团队与中大合作提出的 ParGo 模型,通过巧妙地融合全局视野和局部细节,在多项权威基准测试(Benchmark)中表现出色,成功入选了 AAAI 2025。


  • 论文地址:https://arxiv.org/abs/2408.12928

  • 代码地址:   https://github.com/bytedance/ParGo


过去,大多数研究主要依赖线性投影或多层感知机(MLP)将视觉特征直接映射,这种方法难以有效控制输入 LLMs 的视觉 token 数量,特别是在处理细粒度特征时,导致计算成本极高。另一类基于注意力机制的方法(如 Q-former)通过注意力操作将图像特征投射为固定数量的视觉 token,虽然大幅减少了计算成本,但往往使得生成的 token 集中在图像的显著区域,忽略了细节部分。


为了解决这一问题,ParGo 提出了一种创新的全局 – 局部投影器来连接视觉与文本,通过结合全局视野和局部细节的双重视角,克服了传统方法对显著区域的过度聚焦,使得视觉特征能够在更细腻的层面上得到全面展现,同时有能有效控制过长的 token 带来的计算成本的升高,进而实现了视觉特征和 LLM 的高效连接。

全局 + 局部视角联合


方法


ParGo (Partial-Global) 采用两种类型的可学习 token, 利用 attention 机制,同时从局部和全局视角将视觉特征映射到大语言模型(LLM)中。该框架包含两个关键模块:Partial-Global Perception Block (PGP) 和 Cascaded Partial Perception Block (CPP)。这两个模块共同作用,实现了高效的视觉 – 语言连接,既捕捉了图像的全局信息,又能精细地提取局部特征,从而提升了多模态大语言模型的效果。


图 1: ParGo 模型框架图


核心模块


  • Partial-Global Perception Block (PGP)


在 ParGo 中,视觉编码器的特征被映射为两种不同类型的 token:Partial token 和 Global token,从而能够分别提取图像的局部和全局信息。具体来说:


  • Partial tokens:每个 token 仅与部分视觉特征进行交互,专注于图像的局部信息

  • Global tokens:全局 token 则与所有视觉特征进行交互,捕捉图像的全局信息


ParGo 采用了一种新的交叉注意力掩码设计(Partial-Global Attention Mask),如图 1 (b) 所示,来处理输入的视觉特征。该设计能够同时输出包含图像局部和全局信息的特征,即 Partial tokens 和 Global tokens。具体的公式如下:


  • Cascaded Partial Perception Block (CPP)


此外,考虑到不同局部物体在图像中的占比不同,为了进一步增强对多种局部信息的完整捕获能力,ParGo 在 Partial-Global Perception 模块之前引入了 Cascaded Partial Perception (CPP) 模块。


CPP 模块 的核心是一个带有特殊设计掩码的自注意力机制,如图 1 (b) 中的  Cascaded Partial  Attention Mask。随着层数的增加,每个 Partial token 能够访问到更多的相邻 token,从而逐步扩展其感知范围。该过程可以通过以下公式表示:


实验效果


论文重点对比了当前不同类型的 Projector(投射器),在一些通用的 MLLM 的 benchmark 的效果,均取得了优异的效果。


为了进一步进行公平对比,论文在相同数据集和实验参数下,比较了三种主流的投影器(Projector)。结果显示,ParGo 依然取得了最佳的性能表现。另外,在不同基座 LLM 下,ParGo 均表现良好,体现出了更好的泛化性能。

不同 Projector 之间的比较


换用不同的基座 LLM 的比较


案例分析


为了能进一步展现 ParGo 在控制 token 数量的情况下,依然能做到细粒度和空间关系的准确捕获,作者对比了 ParGo 和 Q-former 这两种均是基于注意力机制的 Projector(投射器)在相同 tokens 下的效果:

文字识别更加准确


图像的细节描述程度更好


局部元素识别效果更好


结论


本研究提出了 ParGo(局部 – 全局投影器),一种创新的视觉 – 语言投影方案,旨在提升多模态大语言模型(MLLMs)中视觉和语言模态的对齐效果。ParGo 通过结合局部 token 和全局 token,并使用精心设计的注意力掩码分别提取局部和全局信息,在控制 token 数量的同时增强了局部区域之间的关系建模,充分考虑了图像的细节与全局视角,从而克服了传统方法中忽视细节的问题。


© 

(文:机器之心)

欢迎分享

发表评论