视觉语言模型能否实现鲁棒的数学推理?UC伯克利发布测评基准DynaMath

©PaperWeekly 原创 · 作者 | Chengke Zou

单位 | UC Berkeley

研究方向 | 多模态大语言模型


大模型的推理能力是近期大家广泛关注的焦点,但大多数研究集中在大语言模型(LLM)上。

对于数学题来说,通常需要同时结合图片的信息和题目的内容进行推理。近期已经有一系例测试基准如 MathVista,MathVerse,MMMU 等数据集包含了图片信息,能够用来检验视觉语言模型(VLM)的数学推理能力,并且很多开源模型已经在这些数据集上取得了很好的成绩。
本论文作者测试了目前最强的视觉语言模型 GPT-4o 以及 Claude 3.5 等,在一些简单的数学题及其变体上发现了非常有趣的现象。

项目主页:

https://dynamath.github.io

论文预印版:

https://huan-zhang.com/DynaMath.pdf

数据集链接:

https://huggingface.co/datasets/DynaMath/DynaMath_Sample

代码链接:

https://github.com/DynaMath/DynaMath


在上图中,我们询问 GPT-4o |x-2| 或 |x+1| 是否在 x=0 处可导,GPT-4o 会根据我们提供的图片信息以及问题背景进行推理然后得出结论这两个函数在 x=0 处都是不可导的。只有当询问 |x| 是否在 x=0 处可导时,GPT-4o 才能回答正确。
在正弦函数的周期问题中,无论图中展示的正弦函数是何种周期——短周期的 sin(2x)、sin(3x) 或是长周期的 sin(1/2x)、sin(1/4x),Claude 3.5 Sonnet 在进行分析后,给出的答案都是 sin(x) 的周期,即 2,而没有根据图像中的实际周期进行相应的调整。

我们论文中分析了更多的例子,这些例子表明,当前最强的一些视觉语言模型在数学推理上存在漏洞。当题目图片中的条件发生微小变化时,这些模型往往难以做出鲁棒的推理,甚至可能仅仅是记住了训练数据集中题目的答案,而不是通过理解进行解答。


这些问题亟待解决,但由于目前开源的多模态数学评测基准都是静态的,有可能被现有模型训练过,无法真正评估视觉语言模型的鲁棒的推理能力。


为此,我们推出了 DynaMath,一个全新的动态生成的测评基准,其目的在于评估和研究 VLM 是否真正拥有感知、推理并解答复杂多模态数学问题的能力,从而为其进一步的改进和发展提供方向。

简言之,我们为 DynaMath 收集并编写了 501 个高质量、多主题的种子问题(seed questions),每个种子问题都通过 Python 程序表示(如下图所示),能够自动生成大量具有不同视觉和文本条件的具体问题(concrete questions)及其答案。
在题目变化方面,我们考虑了数值变动、几何变换、函数类型变换、颜色变换、符号替换、现实生活场景替换以及图结构替换等多种情况解决某个种子问题的多个具体问题所需的能力和推理过程几乎一致,但需要适应变化的条件,进而能够用于评估视觉语言模型的推理稳健性。

基于 DynaMATH,我们为每个种子问题生成了 10 个变体,总计 5010 个具体问题,并评估了 14 个最先进的VLMs的性能。

结果表明,正确回答了所有变体的种子问题的百分比(worst-case accuracy)显著低于平均准确率。以 GPT-4o 为例,平均正确率为 63.7%,但正确回答了所有变体的种子问题的百分比仅为 34.7%。
下表即为 worst-case accuracy 的结果,我们观察到 GPT-4o 和 Claude 3.5 优于 Gemini Pro,此外 Qwen2-VL-72B 和 InternVL2-76B 目前在开源模型中表现最好。

如上图所示,本文还分别按照数学题的题目类型、变化类型对应的模型鲁棒性进行了分析。

我们发现开源模型和闭源模型都呈现出相似的缺陷。尤其是在应对 puzzle test 类型的数学题和 graph structure的变化时(相关例子详见本文附录),这些模型的鲁棒性显得不足。然而,在处理 symbolic substitution 类型的变化时,开源模型与闭源模型(如GPT-4o)之间存在明显的差距。

更多实验结果及详细分析可以在我们的论文中找到。此外,我们的数据集已经在 Huggingface 上发布,欢迎大家使用,并期待你们的反馈和建议。

更多阅读

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

(文:PaperWeekly)

欢迎分享

发表评论