-
底层PTX编程:
DeepSeek团队通过⽐CUDA更底层的硬件接⼝编程实现更精细的通信任务管理,将跨节点通信的效率提⾼了60%,比起“绕开CUDA”更像是“穿透CUDA”。
-
精细流水线编排:
采⽤混合专家(MoE)结构,通过缩减模型激活参数量和限制通信范围,牺牲通信换取模型规模增⼤,再通过细致的计算通信编排,实现了通信时间和计算时间将近100%重叠,成功掩盖这些开销。
-
极致的内存优化:
通过参数共享、计算换存储、协同使⽤内存显存等技术,将显存需求量降低了1/4以上,有效改善显存开销对限制模型规模的影响。
-
模型结构配合系统需求:
修改标准Transformer(存储⼤量计算中间结果会严重制约模型能处理的上下⽂⻓度),使⽤隐空间注意⼒计算机制MLA,计算换存储,在有限显存中完成注意⼒计算。
在⼏乎不损失算法精度的情况下,将显存占⽤量降低1-2个数量级。
-
使⽤更低精度训练:
通过算法上的精细分组量化、系统上CUDA核⼼与张量核⼼的并⾏计算,结合⼤量数据实验,率先实现了利用英伟达H800上FP8低⽐特计算单元训练出⾼质量模型,充分榨⼲硬件潜⼒。
-
MoE负载均衡:
在MoE常⽤的负载均衡损失函数外,额外加⼊了限制极端情况的损失限制,并提出Auxiliary-Loss-Free技术减少负载均衡限制导致的模型精度损失,不仅将负载不均衡程度从超过50%降低到5%以内,也保证了MoE训练精度。
(文:智东西)