DeepSeek-R1发布后的100天复现之旅方法总结


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
来源 | 深度学习自然语言处理

100天前,DeepSeek团队发布了「推理大模型」DeepSeek-R1。这个模型不仅能回答问题,还能像人类一样一步步「写草稿」「验算」「纠错」,比如解数学题时先列公式再计算,写代码时边写边检查。这种「显式推理」能力让它迅速成为AI圈的焦点。

论文:100 Days After DeepSeek-R1: A Survey on Replication Studies and More Directions for Reasoning Language Models
链接:https://arxiv.org/pdf/2505.00551

但DeepSeek-R1的技术细节并未完全开源,于是全球研究团队开启了「复现竞赛」——用公开数据和算法,尝试复刻它的能力。这篇论文就像一份「复现攻略」,总结了100天来的经验,还画出了未来的技术地图。

推理大模型的本质是「让AI学会思考」,而不仅是「背诵答案」。

概念:推理大模型 VS 普通大模型

普通大模型(比如ChatGPT)像「速记员」:你问它问题,它直接输出答案,但中间过程是「黑箱」。而推理大模型更像「学霸」:解题时会展示完整的思考步骤,比如:

  • 自我验证:算完结果后反向检查
  • 多步推导:拆解复杂问题为小步骤
  • 反思纠错:发现错误后重新尝试

这种能力对数学、编程、逻辑题尤其重要。比如解方程时,模型可能会先写「设未知数为x」,再列出方程,最后验算答案是否正确。

复现研究的两大方法

一:监督微调(SFT)

监督微调的核心是让模型学习高质量「解题范例」。比如:

  • 数据从哪来:从数学竞赛题、代码题中筛选,再用DeepSeek-R1生成「标准答案」
  • 关键操作:去重、过滤错误、难度分级(参考下表的数据集统计)
  • 效果对比:某些团队用仅1千条精选数据,就能达到不错效果

冷知识:数据质量比数量更重要!某些团队发现,加入「非推理类数据」(比如写作、角色扮演)能提升模型通用性。

二:强化学习(RLVR)

如果说SFT是「背答案」,RLVR就是「模拟考试」:模型生成多个答案,根据得分(奖励)调整策略。关键设计包括:

  • 奖励规则:答案正确性、格式规范性(比如代码是否可执行)
  • 算法优化:PPO、GRPO等算法改进(公式见下文)
  • 动态采样:自动筛选「错题」重点训练

公式亮点:GRPO算法的核心是「组内奖励标准化」,避免模型被极端分数带偏:

(即把同一问题的多个答案奖励,减去平均值再除以标准差,让模型关注相对优劣)

不同数据集的文本长度分布,长尾部分代表复杂问题。

关键发现:小模型也能逆袭?

  • 数据质量:过滤「太简单」和「超纲题」,保留中等难度最有效
  • 模型大小:7B小模型+RL训练可接近32B模型性能
  • 训练技巧:逐步增加生成长度(比如从8k到32k token),让模型适应复杂推理

反直觉结论:加入KL散度约束(防止模型偏离初始状态)反而可能限制性能!

未来方向

  • 安全风险:过度推理可能导致「废话文学」或绕过安全限制(比如生成恶意代码)
  • 多模态推理:让模型结合图像、语音等多模态信息(比如解几何题时「看图纸」)
  • 低成本训练:用偏好优化(DPO)替代复杂强化学习,降低算力需求

最后论文甚至提到用RL训练模型「写诗」和「设计排序算法」,AI的创造力边界正在拓宽!


(文:机器学习算法与自然语言处理)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往