DeepSeek R2要来了!大摩率先曝光,参数翻倍、推理成本暴降88%

DeepSeek R2模型终于有新消息了!


最近,顶级投行摩根士丹利发布了一则研报,提前曝光了DeepSeek即将发布的全新一代模型——R2。


这个研报篇幅不长,但信息巨大。话不多说!快跟着乌鸦君一起来看看吧。


/ 01 /

两大核心亮点:参数翻倍,价码暴跌88%


这次R2的核心变化有两个:参数翻倍和成本下降。


先说前者,R2 模型的体量直接飙到1.2万亿参数,是之前 R1 的两倍多,活跃参数也从370亿 涨到了780亿,推理时调用更多“脑细胞”,意味着模型思考得更深,输出质量自然也水涨船高。


这种思路,其实和 Google 的 Gemini、Anthropic 的 Claude 类似——通过增加每次调用中参与运算的参数量来增强推理质量。例如,Gemini 2.5 Pro使用的Token比R1-0528多30%。


虽然这会提升计算成本,但对于终端用户来说,换来的是更聪明、更会“想事”的模型,值了。


另一大变化是,模型成本更便宜了。


根据大摩消息,R2的每百万Token输入成本只有0.07美元,比R1的0.15-0.16美元下降了一半还多;输出成本更厉害,从原先R1模型的其每百万Token2.19美元,大幅下降到0.27美元。


这个价格远远低于OpenAI的GPT-4o等最先进的模型。GPT-4o的API定价为输入每1百万个Token2.50美元,输出每1百万个Token 10.00美元。


也就是说,R2的价格比GPT-4o等最先进的模型便宜了97%。


对创业公司、开发者、企业来说,这无疑是巨大诱惑:不仅推理效果强,还能把使用成本打到地板价,商业化空间大大拓宽。


除了参数和价格,R2还有三大升级亮点:


1)多语言推理和代码生成能力大幅提升。据说,DeepSeek正在优先提升R2的编码能力,以及英语以外语言的能力,以扩大该模型对全球受众的潜在影响和适用性;


2)引入了更高效的 MoE混合专家架构,推理效率更高,激活参数选择更智能。该架构将人工智能模型分成独立的子网,这些子网根据输入选择性地激活。这种方法可以显著降低预训练的计算成本,并实现更快的推理性能;


3)多模态支持更强,视觉能力也比之前更上一个台阶;


简单来说,R2不仅“想得更深”,还能“看得更清楚”。


在性能提升的同时,DeepSeek也正在摆脱对H100的依赖,实现本土算力突破。


据大摩透露,这次 DeepSeek 并没有依赖传统的 NVIDIA H100 芯片,而是用上了华为的昇腾910B芯片集群。虽然生态上华为还追不上英伟达,但这已经是国产芯片参与大模型实战的重要突破了。


DeepSeek正在努力建立一个本地硬件供应链,以减少对美国制造的芯片的依赖。时至今日,R2模型背后已经形成了一个强大的本土供应链体系。


/ 02 /

版本优化刚刚完成,R2还得等等?


目前,DeepSeek的模型家族主要有三大产品:


V系列(V1~V4):通用大模型,全面覆盖推理、效率、Agent能力;

R系列(R1 → R2):专注深度推理、数学、工具链整合等能力;

Prover-V2:一个为数学生成专门优化的模型;


其中,DeepSeek-Prover-V2于今年4月发布的新模型。Prover-V2并非通用的模型,而是一个高度专业化的数学证明模型,基于DeepSeek V3,采用了改进的MoE架构和压缩的kV缓存以减少内存消耗。


抛开新发布的数学证明模型,DeepSeek的大模型升级路线主要有条:


V4:作为通用模型主线的全面迭代,强调推理性能、效率与 Agent 化能力的提升;


R2:作为 Reasoner 专线的强化升级,对标 OpenAI的o3后续迭代模型和 Gemini 2.5 Pro 0605&正式版&未来的Gemini 3,进一步提升数理+工具链+多步推理表现;


从过去看,DeepSeek的模型迭代节奏比较固定,基本遵循“2小1大”的规律:即每两个月会有一个小版本更新,接着进行一个大版本换代。


以通用模型V1为例,V1是在2023年11月发布,V2的发布时间则是2024年5月,而V3的发布时间则到了2024年12月。按这个节奏,2025年6、7月份,DeepSeek会有一个比较大的版本更迭。


就在R2发布前不久(同样是5月29日),DeepSeek也发布了一个没改版本号但改得不小的强化版 —— R1-0528。


虽然架构没动,但这版本引入了强化学习训练(RLHF),推理深度明显加强。官方评估显示:用了9900万个token完成评测任务,比原来的R1多了40%,思考更深、过程更复杂,表现当然更好。


成绩单也很漂亮:


AIME 2024(数学竞赛):+21分

LiveCodeBench(代码生成):+15分

GPQA Diamond(科学推理):+10分

Humanity’s Last Exam(知识推理):+6分


用户反馈也很正面,特别是在逻辑、编程和交互能力上提升显著。


这次 R1-0528 升级得这么猛,很多人开始怀疑:这是不是就是传说中的R2?不过目前官方并没有正面回应,这个说法还没实锤。


虽然大摩说R2快来了,但按 DeepSeek 一贯的节奏推测,真正的 R2 估计还得再等等。这波升级,更像是“压线偷跑”的大版本优化,而不是正代更新。



文/林白


PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。


(文:乌鸦智能说)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往