引言
[1, 2]
发现通过引入安全相关的外部监督信号对大模型进行微调可以让其在安全相关的 Benchmark 上获得很低的 Attack Success Rate(ASR)。为了解决这个难点,我们构建了 Multi-Image Safety(MIS)数据集,包括训练集以提升模型安全相关的视觉感知、推理能力,测试集以评估 VLMs 在多图场景下的安全性。
论文链接:
项目主页:
代码链接:
数据集链接:
模型链接:
安全微调瓶颈
[3]
,MMMU[4]
,MMT[5]
三个通用能力 Benchmark上,纯文本微调(Textual SFT[6]
)和单图多模态微调(VLGuard[1]
)在不同模型上都出现了能力下降的问题。并且,在通过给相同意图的良性文本指令匹配不同安全图片从而构成 Safe 和 Unsafe 场景的 MSSBench 上,现有微调方法表现都十分糟糕。

2.1 分析
但由于 VLGuard 输入数据过于简单,大多直接含有明显的不安全元素,无法构建复杂高质量的安全视觉推理数据,因此带来的提升较为有限。
2.2 定量展示
如下图(a)(b)所示,MSSBench 通过给相同意图(提升滑板技能)的文本指令,匹配不同的安全图片从而构成 Safe(室外滑板)和 Unsafe(商场环境滑板)场景。而现有的微调方法如 Textual SFT 和 VLGuard,都无法在 MSSBench 上做出令人满意的回复。
3.1 MIS dataset
我们的图文对输入数据构建主要分为四个步骤:
1. 有害元素提取:分别从有害图片和文本中提取有害元素。
2. 文本指令生成、物体提取、毒性去除:利用 LLM 根据第一步中提取的有害元素生成含有两个物体的有害问题,提取问题中的物体,最终修改问题格式似的文本指令看上去无害。
3. 图片生成:根据第二步中提取到的物体进行图片生成,在用 VLM 根据生成图片、第二步中的有害问题和两个物体进行物体描述的修正,从而生成与文本指令语境一致的两张图片。
4. 数据过滤、分类:通过人工过滤去除掉无意义、不合理的、低质量的图文对,再利用 GPT-4o 根据图文的安全性对数据集进行划分。其中文本被分类为不安全的图文对作为训练集,文本安全且图片不安全的座位简单测试集,文本图片都分别安全的作为难测试集,最终得到 4k 训练输入数据,和 2185 测试输入数据。
在 2185 测试数据中,采样了 100 条进行了真实图片搜索,这 100 个样本的图片为现有数据集中的真实图片而非合成图片。

3.1.2 MIS测试集
MIS 测试集总共包含 6 个类别,12 个子类别。下图提供了不同类别的样本。其中 MIS-hard 中文本指令与输入图片都分别安全,而组合在一起时会出现有害意图和风险。如相机和卧室,再被无害的文本关联后就出现了隐私窃取和非法拍摄的风险。
3.2 MIRage
之前验证了通过 Safety CoT 构建微调标签可以一定程度上克服安全微调瓶颈。我们提出了 Multi-Image Reasoning Safety Fine-Tuning(MIRage),通过提示 InternVL2.5-78B 先进行图片识别(视觉感知),再根据两张图片和文本指示分析其中潜在的安全风险(视觉推理),最终给出安全的回答,从而构建了高质量具有 Safety CoT 的微调标签。
实验
我们的实验主要集中在两个方面:(1)视觉语言模型在 MIS test 上的表现,(2)MIRage 微调后模型的表现。
我们在常见的支持多图输入的 VLM,如 Qwen2-VL,InternVL2.5,Deepseek-VL2,GPT-4o,Gemini-1.5-pro 等模型上进行了实验,并且在 InternVL2.5-8B 和 Qwen2-VL-7B-Instruct 上分别验证了 MIRage 优于现有的安全微调方法。
在 MIS test 上的实验结果如下表所示。我们的评价指标为 ASR:成功攻击概率(模型回答不安全),HR:幻觉概率(模型回答不完整 / 含有幻觉),RSR:推理成功概率(模型通过推理给出了安全的回答),RR:拒绝率(模型拒绝回答有害问题)。
-
开源模型在多图场景下表现出安全性能崩溃。
-
闭源模型如 GPT-4o 等,也无法很好的给出安全回答。
-
MIRage 微调后的模型显著提升了多图安全能力。
4.3 MIRage结果
-
MIRage 通过提升模型的安全视觉感知、推理能力从而提升模型的安全表现,其安全能力在不同的安全相关 Benchmark 上都取得了不错的表现,尤其是在具有挑战的 SIUO 和 MSSBench 上。
-
即使在不添加通用数据的情况下,MIRage 提升的视觉相关能力使得其对模型的通用能力没有任何负面影响。而添加了 500 条(11%)通用数据后,在 5 个通用能力 benchmark 上平均得到了 0.83% 的提升。
结论
我们提出的 MIS 和 MIRage 提升了视觉语言模型至关重要的安全视觉推理能力,并且指出了现有模型在多图场景下安全能力薄弱的问题。当然,我们只是通过最简单的 Safety CoT 做出了安全视觉推理的初步探索,如何用更加复杂高效的方法提升模型的安全视觉推理能力,从而完全克服安全微调瓶颈是非常有趣的问题。
(文:PaperWeekly)