
DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦!👏

什么是 FlashMLA?🤔
简单来说,FlashMLA就是一个为了让 英伟达Hopper架构 GPU跑得更快更溜的 MLA 解码加速器! 它主要针对 变长序列 (variable-length sequences) 的场景进行了深度优化,尤其是在大模型推理服务中,效率提升简直肉眼可见!🚀
根据官方介绍,FlashMLA 目前已经 在生产环境中使用,稳定性杠杠的!
FlashMLA 有啥亮点? ✨
-
• ✅ BF16 精度支持: 紧跟潮流,支持最新的 BF16 精度,性能与效率兼得! -
• ✅ Paged KV Cache (页式键值缓存): 采用页式 KV 缓存,块大小为 64,更精细的内存管理,效率更高! -
• ⚡️ 极致性能: 在 H800 SXM5 GPU 上,内存受限场景下可达 3000 GB/s 的惊人速度,计算受限场景也能达到 580 TFLOPS 的算力! 而且,这一切都基于 CUDA 12.6 实现的!
快速上手,体验飞一般的感觉! 💨
DeepSeek AI 也非常贴心地给出了快速上手指南,只需简单几步,就能体验 FlashMLA 的强大!
安装:
python setup.py install
复制
跑个 Benchmark 试试水:
python tests/test_flash_mla.py

👉 GitHub 仓库传送门: https://github.com/deepseek-ai/FlashMLA
技术细节 & 引用
FlashMLA 的背后,离不开对 FlashAttention 2&3 以及 cutlass 等优秀项目的学习和借鉴。DeepSeek AI 在这些基础上进行了创新和优化,才有了今天的 FlashMLA。
写在最后
温馨提示: FlashMLA 需要 Hopper 架构 GPU、CUDA 12.3 及以上 以及 PyTorch 2.0 及以上 版本支持哦! 使用前请确保你的环境满足要求!
⭐
(文:AI寒武纪)