打破多模态数学推理瓶颈:港中文MMLab发布MINT-CoT,将细粒度视觉推理链引入数学领域

↑ 点击蓝字 关注极市平台
作者丨陈昕颜
编辑丨极市平台

极市导读

 

港中文 MMLab 提出新方法 MINT-CoT,通过引入“视觉交错思维链”,实现细粒度视觉与文本推理融合,显著提升多模态大模型在数学视觉任务中的表现。该方法在多个基准数据集上刷新 SOTA,推动多模态数学推理迈出关键一步。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

论文:https://arxiv.org/abs/2506.05331

代码:https://github.com/xinyan-cxy/MINT-CoT

在人工智能领域,思维链(Chain of Thought, CoT)推理方法已被证明能够显著提升大语言模型(LLMs)在复杂任务中的表现。而在多模态大语言模型(MLLMs)中,CoT 同样展现出了巨大潜力。

然而,当我们尝试将 视觉信息与数学推理结合时,传统的 CoT 方法就显得力不从心了——视觉输入中的数学细节往往被忽略,导致推理结果不准确。

最近,香港中文大学 MMLab 团队正式发布了全新的视觉推理方案——MINT-CoT,专为解决“多模态数学推理”中的难题而设计。

为什么数学视觉推理这么难?

尽管已有一些研究尝试把视觉信息引入 CoT 推理,例如 Visual-CoT、Visual SKETCHPAD、VPT、ICoT 等方法,但在数学场景下依然存在 三大瓶颈

1.粗粒度图像区域选择

大部分方法依赖边界框(Bounding Box)来截取图像区域。但数学图像里的元素(比如坐标轴、几何图形、标注文字等)高度关联,简单裁剪很容易把无关或干扰信息带进推理过程。

2.视觉编码器“看不懂数学”

目前主流视觉编码器(如 CLIP、SigLIP)都是针对自然图像训练的,对于公式、几何图等“数学型图像”,它们属于“分布外”内容,感知力严重不足

3.过度依赖外部功能

像 MVoT 或 Visual SKETCHPAD 等方法,需要借助外部工具或能力来生成或修改图像,训练和推理过程成本高、不通用

MINT-CoT:细粒度视觉交错推理新范式

为了解决上述痛点,我们提出了 MINT-CoT(Multimodal Interleaved Chain-of-Thought)——一种细粒度、轻量级的视觉交错 CoT 推理方法,专为数学推理场景设计。

核心创新在于引入了一种特殊的 Interleave Token——模型在生成下一个 token 时,会动态从图像中选取与当前推理步骤最相关的视觉 token,并嵌入文本推理链中。这个过程通过计算计算 Interleave Token 的隐藏层与所有视觉 token 的隐藏层的相似度来实现,从而动态选取与数学概念最相关的视觉区域,将图像与文本细粒度地融合

相比传统基于矩形区域的方法,MINT-CoT 可以灵活选取任意形状的视觉区域,比如几何图形、坐标、线段等结构化数学元素,实现真正的 “图文联合推理”

数据集:打造“视觉交错推理”的专属训练集

为了支撑 MINT-CoT 的训练,我们还构建了 MINT-CoT 数据集,共 5.4 万条视觉交错推理样本,每条数据都包含推理步骤与相应图像中 token 的对齐信息。我们基于 Mulberry-260K 数据集生成文本推理链,再通过以下四步流程完成视觉区域标注:

(1) 将图像划分为网格区域,
(2) 利用 OCR 检测图像中文本并映射到对应网格,
(3) 提取推理关键词,
(4) 使用MLLM关联关键词与图像区域,完成 token级别的匹配标注。

三阶段训练策略:逐步提升视觉交错推理能力

在MINT-CoT框架和数据集的基础上,我们设计了一个三阶段的训练策略,逐步提升模型的推理能力,具体包括:

(1) 文本 CoT 微调: 通过纯文本推理数据训练模型,打下通用推理格式的基础

(2) 交错模态 CoT 微调: 使用两个损失函数监督文本推理和视觉token选择,教会模型在推理过程中合理插入视觉内容,实现图文联合推理能力。

(3) 交错模态 CoT 强化学习: 利用强化学习优化视觉内容选择和推理策略,让模型自主探索更优解法。

实验效果:全面超越现有方法

我们在多模态大模型Qwen-VL-7B的基础上应用了MINT-CoT框架,训练出 MINT-CoT-7B 模型,在数学视觉推理任务中表现优越。下面的可视化结果表明,MINT-CoT-7B 相比于基线模型,表现出更合理的推理形式,可以在推理过程中选择相关的视觉token,并和文本内容一起交错推理。

定量的实验结果也表明了我们方法的有效性。MINT-CoT-7B 在多个基准上实现显著提升:在MathVista上提升 +32.59%,在 GeoQA上提升 +26.92%,在MMStar上提升 +23.2%。不仅如此,MINT-CoT-7B 全面超越原有 SOTA 模型,成为数学视觉推理领域的新标杆。

小结:

我们通过提出 MINT-CoT,实现了细粒度视觉信息与思维链推理的深度融合,显著提升多模态大模型在数学视觉推理任务中的表现。未来,MINT-CoT 有望拓展至更多结构化视觉场景,推动多模态推理技术进一步发展。

(文:极市干货)

发表评论