从DeepSeek->Kimi->豆包->Qwen3,看Reasoning model之路


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
来源 | 知乎
作者|假如给我一只AI


前言

自DeepSeek-R1发布以来,Reasoning model(推理模型)可谓是大火。同时,LLM领域近期也发生了三件事:

  • • 字节团队发布Seed-Thinking-v1.5技术报告;
  • • 清华&上交团队在paper中提出:RL并不能真正提升LLM的推理能力;
  • • 具备Reasoning能力的Qwen3问世,号称思考更深、行动更快。

既然推理模型如此重要,笔者本次就针对几款主流的模型做一个总结,主要回答两个问题:

  • • RL能否提升LLM的推理能力?
  • • 如何让LLM具备Reasoning能力?

一、RL能否提升LLM的推理能力?

1.1 DeepSeek-Math的回答

论文指出:评估了Instruct和RL模型在两个基准测试上的Pass@K和Maj@K准确率。如图7所示,RL提升了Maj@K的性能,但没有提升Pass@K。这一发现表明,RL通过使模型的输出分布更加稳健来提升整体性能,换句话说,改进似乎是通过将正确答案从TopK中提升而实现的,而不是通过提升模型的基础推理能力。类似地,在推理任务中发现了SFT模型中的误对齐问题,并表明通过一系列偏好对齐策略可以提升SFT模型的推理性能。

在DeepSeek-Math的实验结果如下图1-1(包括Maj@K和Pass@K的定义):

图1-1:DeepSeek-Math的5.5.2小节内容

1.2 清华paper的回答

这里的paper是指近期清华&上交团队合作发表的论文《Does Reinforcement Learning Really Incentivize ReasoningCapacity in LLMs Beyond the Base Model?》。

论文指出:RL训练模型生成的推理路径已包含在基础模型的采样分布中,这表明RL训练模型中表现出的大多数推理能力已由基础模型获得。RL训练通过偏向更可能产生奖励的路径来提高性能,从而更高效地采样正确的响应。但这也限制了其探索能力,导致推理能力边界比基础模型更窄。

对比可知,该paper的回答和DeepSeek的回答是相似的,即RL训练模型中表现出的大多数推理能力已由基础模型获得。但该paper给出了更多的实验(细节可参考原文),主要包括:

  • • 验证基础模型中存在推理模式
  • • 验证蒸馏(如DeepSeek-R1-Distill-Qwen-7B模型)可以扩展推理边界
  • • 对比不同RL算法(如PPO、GRPO、DAPO等)的效果

二、如何让LLM具备Reasoning能力?

2.1 Seed-Thinking-v1.5

Seed-Thinking-v1.5是一种MoE(混合专家)模型,规模相对较小:总参数200B&激活参数20B。该团队为了开发一个高质量的推理模型,在三个关键点投入了大量精力:训练数据、RL算法、RL infrastructure(本文不展开)。

1)RL阶段的训练数据准备

图2-1:Seed-Thinking-v1.5的RL数据准备

2)Reward模型

图2-2:Seed-Thinking-v1.5的奖励模型

3)SFT阶段的数据和训练

图2-3:Seed-Thinking-v1.5的SFT阶段

4)RL阶段的训练

图2-4:Seed-Thinking-v1.5的RL算法

2.2 DeepSeek-R1

DeepSeek-R1的训练流程,如下:

图2-5:DeepSeek-R1全流程

整体分为两大步:

1)获取DeepSeek-R1-Zero:通过”纯”强化学习(无任何监督数据,Prompt模板见下图1-1)去生成一个新模型,即R1-Zero,然后用它生产几千+带CoT的冷启动数据,作为后续R1模型的燃料之一。

图2-6:DeepSeek-R1-Zero的Prompt模板

2)获取DeepSeek-R1:主要包括四个核心训练阶段(阶段1、2、3、4)和2个数据准备阶段(阶段0、2.5):

  • • 阶段0:即获取DeepSeek-R1-Zero。
  • • 阶段1:基于R1-Zero的几千+数据,在V3-Base上执行第一次SFT,获得基本的格式遵循和反思验证的能力。
  • • 阶段2:执行第一次强化学习,加强模型在数学、代码、逻辑推理等领域的推理能力。
  • • 阶段2.5:基于阶段2的模型,获取领域更广泛的600K数据;基于V3-Base,获取包括CoT的非推理数据200K。
  • • 阶段3:基于获取的800K数据,在V3-Base上执行第二次SFT,增强模型的通用性。
  • • 阶段4:执行第二次强化学习,进一步对齐人类偏好,提升模型的可用性和无害性,并精炼推理能力。

因此,模型在四个阶段都在努力注入Reasoning能力。

2.3 Kimi-K1.5

这是一个多模态模型,观感上,其数据整理、奖励模型、SFT训练、RL训练和Seed-Thinking-v1.5相似,但仍然有特殊之处,需要额外了解的如下:

1)RL的数据往哪个方向收集?

作者明确指出,高质量的 RL 提示集具有以下三个关键特性:

  • • 多样覆盖(Diverse Coverage):prompt涵盖全面,如STEM、编码和一般推理,以增强模型在不同领域的广泛适用性。
  • • 平衡难度(Balanced Difficulty):prompt集合应包括易、中、难问题的均衡分布,以促进逐步学习,防止过拟合到特定复杂度水平。
  • • 准确可评估性(Accurate Evaluability):允许verifier进行客观和可靠的评估,确保模型性能基于正确推理而非表面模式或随机猜测。

2)采样策略

图2-7:Kimi-K1.5的采样策略

3)RL算法(online policy mirror decent)

图2-8:Kimi-K1.5的RL算法

关于为什么要删除value模型,作者考虑了2个原因:

  • • 1)设想模型生成了一个部分链式思维(z1,z2,…,zt),有两个潜在的下一个推理步骤:zt+1和zt+1′。假设zt+1直接导致正确答案,而zt+1′包含一些错误。如果有一个value函数,它会指示zt+1比zt+1′具有更高的价值。根据标准的信用分配原则,选择zt+1′将被惩罚,因为它相对于当前策略具有负优势。然而,探索zt+1′对于训练模型生成长链式思维非常有价值。
  • • 2)降低RL的复杂度。

2.4 Qwen3

1)预训练阶段

图2-9:Qwen3预训练阶段

2)后训练阶段

为了开发既能进行逐步Reasoning又能快速响应的混合模型,实现了一个四阶段训练流程(见图2-10):

  • • 第1阶段——Long CoT冷启动:使用各种Long CoT 数据对模型进行微调,涵盖数学、编程、逻辑推理和 STEM 问题等各种任务和领域。此过程旨在使模型具备基本的推理能力。
  • • 第2阶段——基于推理的RL:这一阶段专注扩展强化学习的计算资源,利用基于规则的奖励来增强模型的探索和利用能力。
  • • 第3阶段——Thinking模式融合:通过结合Long CoT数据和常用的指令fine-tuning数据对Thinking模型进行微调,将非思考能力融入到Thinking模型中。这些数据由第2阶段的增强型Thinking模型生成,确保推理能力与快速响应能力的无缝融合。
  • • 第4阶段——通用RL:将强化学习应用于20多个通用领域任务,以进一步增强模型的通用能力并纠正不良行为。这些任务包括指令遵循、格式遵循和Agent能力等。
图2-10:Qwen3后训练阶段

2.5 总结

一个优秀的Reasoning model诞生,需要关注以下几点:

  • • Base模型够强(如DeepSeek-V3)
  • • 数据需要覆盖完整&高质量(如Seed-Thinking-v1.5和Kimi-K1.5)
  • • 预训练中,可以在最后一个阶段就加入推理数据
  • • 奖励模型非常重要,如果能够针对性对CoT打分则更佳
  • • 后训练中,在SFT和RL过程均加入推理数据

三、参考文献

清华&上交paper:https://arxiv.org/pdf/2504.13837
Kimi-K1.5:https://arxiv.org/pdf/2501.12599
DeepSeek-Math:https://arxiv.org/pdf/2402.03300
Seed-Thinking-v1.5:https://arxiv.org/pdf/2504.13914v1
qwen3:Qwen3: Think Deeper, Act Faster、https://huggingface.co/docs/transformers/model_doc/qwen3



(文:机器学习算法与自然语言处理)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往