跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

580TFLOPS

DeepSeek开源周Day1,硬核发布…

下午7时 2025/02/25 作者 PaperAgent

DeepSeek开源了FlashMLA,这是一个为Hopper GPU开发的高效MLA解码内核,已投入生产使用,支持BF16和分页KV缓存(块大小64),在H800上可实现高达580 TFLOPS的计算性能。

分类 分享 标签 3000GB/s、 580TFLOPS、 BF16、 DeepSeek、 FlashMLA、 HopperGPU 发表评论

刚刚!DeepSeek开源FlashMLA,推理加速核心技术

下午2时 2025/02/24 作者 Datawhale

DeepSeek本周开源了一款用于Hopper GPU的高效MLA解码内核FlashMLA,主要用于减少推理过程中的KV Cache成本。该项目上线45分钟后收获超过400星,并且得到了广泛好评。

分类 分享 标签 3000GB/s、 580TFLOPS、 DeepSeek、 FlashMLA、 HopperGPU、 PyTorch 发表评论

“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降

下午12时 2025/02/24 作者 量子位

DeepSeek开源FlashMLA第一天,H800 GPU计算性能提升至3000GB/s、580TFLOPS。网友称赞工程团队实现每FLOP的突破。

分类 资讯 标签 580TFLOPS、 FlashMLA、 H800、 凹非寺、 多头潜在注意力机制、 白交 发表评论

DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

下午12时 2025/02/24 作者 新智元

DeepSeek发布FlashMLA开源库,支持英伟达Hopper GPU。FlashMLA针对变长序列进行优化,显著提高推理速度和性能。

分类 资讯 标签 580TFLOPS、 FlashMLA、 HopperGPU、 MLA、 MoE、 优化效果 发表评论

刚刚,DeepSeek开源FlashMLA,瞬间破1000颗星

下午12时 2025/02/24 作者 AIGC开放社区

专注AIGC领域的专业社区分享了DeepSeek开源的FlashMLA内核,该内核针对Hopper GPU进行了优化,实现了3000 GB/s内存带宽和580 TFLOPS计算性能,支持BF16并采用分页KV缓存技术。

分类 资讯 标签 3000GB/s、 580TFLOPS、 DeepSeek、 FlashMLA、 Hopper、 多头注意力解码 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 重磅!Telegram官宣Grok将登陆!Ton应声暴涨16%
  • OpenMemory MCP:大模型的记忆中枢
  • CoGenAV 的核心理念是让 AI 模型也实现“音画同步”的深度理解
  • Telegram Search:一个功能强大的Telegram聊天记录搜索客户端
  • Awesome-Diffusion-LLM:为扩散大语言模型研究者提供一站式资源

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 4 月    

归档

  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×