RAG+的一些前沿动向:兼看长文本、投标写作以及R1可解释性的有趣探索 下午2时 2025/02/19 作者 老刘说NLP 家一起参考。 围绕Ktransformer认知误区,长文本新策略工作,投标文件写作项目,RAG输入去
DeepSeek重磅发布NSA原生稀疏注意力:梁文峰团队核心突破Transformer瓶颈!效率飙升10倍! 下午2时 2025/02/19 作者 子非AI 一举突破 Transformer 注意力机制瓶颈! 梁文峰团队领衔研发 的 NSA 采用 原生稀疏