7倍推理加速!清华团队发布稀疏Attention,无需训练加速一切模型
清华大学陈键飞团队提出的SpargeAttn无需训练且通用,实现了任意模型在4-32K上下文长度上的4-7倍推理加速,并保持了端到端精度。该方法通过选择性地压缩Q, K矩阵并预测P矩阵来节省计算,同时使用稀疏在线softmax算法进一步优化。
清华大学陈键飞团队提出的SpargeAttn无需训练且通用,实现了任意模型在4-32K上下文长度上的4-7倍推理加速,并保持了端到端精度。该方法通过选择性地压缩Q, K矩阵并预测P矩阵来节省计算,同时使用稀疏在线softmax算法进一步优化。
ThinkLLM是一个开源项目,包含了Transformer核心算法、模型训练与优化算法、高效推理与部署算法、长序列处理算法等,帮助开发者和研究者深入理解大模型的底层机制。
↑ 点击
蓝字
关注极市平台
作者丨科技猛兽
编辑丨极市平台
极市导读
本文介绍了一种名为CLEAR