ICML 2025 千倍长度泛化!蚂蚁新注意力机制GCA实现16M长上下文精准理解 上午11时 2025/06/14 作者 机器之心 火如荼的当下,长文本建模仍然是一个极具挑战的问题。纠其根源,一方面在于主流 LLMs 的架构 Tra