XAttention:一种高效的Transformer注意力机制 上午8时 2025/03/24 作者 NLP工程化 XAttention是一种高效Transformer注意力机制,显著提升长文本处理速度13.5倍,在多个场景表现出色且不影响精度。