阿里Qwen2.5-1M开源,仅320G可推理14B百万token

这段时间,国产大模型DeepSeek、kimi、百川智能、豆包、阶跃星辰等集中发布了自家模型,年前最后一天,阿里千问终究也没hold住,也开源了百万Token上下文Qwen2.5-1M 模型及其对应的推理框架支持。
  • 开源模型: 是 Qwen2.5-7B-Instruct-1MQwen2.5-14B-Instruct-1M,首次将开源 Qwen 模型的上下文扩展到 1M 长度。
  • 推理框架: 完全开源了基于 vLLM 的推理框架,并集成了稀疏注意力方法,在处理 1M 长度输入时的速度能够提升 3倍到7倍
  • 技术报告:分享了 Qwen2.5-1M 系列背后的技术细节,包括训练和推理框架的设计思路以及消融实验的结果。
显存要求,对于处理 1M 长度的序列:
  • Qwen2.5-7B-Instruct-1M:至少需要 120GB 显存(多 GPU 总和)。
  • Qwen2.5-14B-Instruct-1M:至少需要 320GB 显存(多 GPU 总和)。
如果 GPU 显存不够,也可以使用 Qwen2.5-1M 进行较短任务的处理。

关键技术长上下文训练

长序列的训练需要大量的计算资源,因此采用了逐步扩展长度的方法,在多个阶段将 Qwen2.5-1M 的上下文长度从 4K 扩展到 256K:

  • 从预训练的Qwen2.5的一个中间检查点开始,此时上下文长度为4K。

  • 在预训练阶段,逐步将上下文长度从 4K 增加到 256K,同时使用Adjusted Base Frequency的方案,将 RoPE 基础频率从 10,000 提高到 10,000,000。

  • 在监督微调阶段,分两个阶段进行以保持短序列上的性能:

    • 第一阶段: 仅在短指令(最多 32K 长度)上进行微调,这里使用与 Qwen2.5 的 128K 版本相同的数据和步骤数,以获得类似的短任务性能。

    • 第二阶段: 混合短指令(最多 32K)和长指令(最多 256K)进行训练,以实现在增强长任务的性能的同时,保持短任务上的准确率。

  • 在强化学习阶段,在短文本(最多 8K 长度)上训练模型。即使在短文本上进行训练,也能很好地将人类偏好对齐性能泛化到长上下文任务中。

通过以上训练,最终获得了 256K 上下文长度的指令微调模型。

https://qwenlm.github.io/zh/blog/qwen2.5-1m/https://hf-mirror.com/Qwen/Qwen2.5-14B-Instruct-1Mhttps://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdf

(文:PaperAgent)

欢迎分享

发表评论