PERK:长文本推理的“加速器”,效率与性能双提升

MLNLP社区介绍其论文《PERK: Long-Context Reasoning as Parameter-Efficient Test-Time Learning》,提出了一种通过轻量级适配器在测试时学习长文本上下文的方法,显著降低了训练时的内存需求并提高了长文本推理性能。

50美元复现DeepSeek R1,李飞飞团队为何也选了阿里Qwen

阿里云通过开源领先模型繁荣AI生态,推动技术创新与商业良性循环。通义千问系列模型屡获佳绩,吸引开发者和企业加入其云计算平台,实现’全尺寸、全模态、多场景’的开源布局。