English 简体中文 繁體中文 한국 사람 日本語 Deutsch русский بالعربية TÜRKÇE português คนไทย french
查看: 4|回复: 0

DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!

[复制链接]
查看: 4|回复: 0

DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!

[复制链接]
查看: 4|回复: 0

223

主题

0

回帖

679

积分

高级会员

积分
679
wJceUzz

223

主题

0

回帖

679

积分

高级会员

积分
679
2025-2-24 15:11:29 | 显示全部楼层 |阅读模式
DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦!👏



什么是 FlashMLA?🤔

简单来说,FlashMLA就是一个为了让 英伟达Hopper架构 GPU跑得更快更溜的 MLA 解码加速器! 它主要针对 变长序列 (variable-length sequences) 的场景进行了深度优化,尤其是在大模型推理服务中,效率提升简直肉眼可见!🚀
根据官方介绍,FlashMLA 目前已经 在生产环境中使用,稳定性杠杠的!
FlashMLA 有啥亮点? ✨


  • • ✅ BF16 精度支持: 紧跟潮流,支持最新的 BF16 精度,性能与效率兼得!
  • • ✅ Paged KV Cache (页式键值缓存): 采用页式 KV 缓存,块大小为 64,更精细的内存管理,效率更高!
  • • ⚡️ 极致性能: 在 H800 SXM5 GPU 上,内存受限场景下可达 3000 GB/s 的惊人速度,计算受限场景也能达到 580 TFLOPS 的算力! 而且,这一切都基于 CUDA 12.6 实现的!
快速上手,体验飞一般的感觉! 💨

DeepSeek AI 也非常贴心地给出了快速上手指南,只需简单几步,就能体验 FlashMLA 的强大!
安装:
python setup.py install

  • 1.





复制
跑个 Benchmark 试试水:
python tests/test_flash_mla.py

  • 1.








👉 GitHub 仓库传送门: https://github.com/deepseek-ai/FlashMLA
技术细节 & 引用

FlashMLA 的背后,离不开对 FlashAttention 2&3 以及 cutlass 等优秀项目的学习和借鉴。DeepSeek AI 在这些基础上进行了创新和优化,才有了今天的 FlashMLA。
写在最后

温馨提示: FlashMLA 需要 Hopper 架构 GPUCUDA 12.3 及以上 以及 PyTorch 2.0 及以上 版本支持哦! 使用前请确保你的环境满足要求!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

223

主题

0

回帖

679

积分

高级会员

积分
679

QQ|智能设备 | 粤ICP备2024353841号-1

GMT+8, 2025-3-12 00:41 , Processed in 0.738794 second(s), 29 queries .

Powered by 智能设备

©2025

|网站地图