清华稀疏Attention,无需训练加速一切模型! 下午4时 2025/03/27 作者 机器之心 清华大学陈键飞团队提出SpargeAttn,无需训练且对任意模型通用的稀疏Attention,实现推理加速4-7倍。