QwenLong-L1:迈向具备长上下文推理能力的大型语言模型的强化学习方法
本文提出了一种强化学习框架QwenLong-L1,旨在提升大语言模型在长上下文中的泛化能力,并通过逐步扩展上下文长度、混合奖励函数等方法实现这一目标。
本文提出了一种强化学习框架QwenLong-L1,旨在提升大语言模型在长上下文中的泛化能力,并通过逐步扩展上下文长度、混合奖励函数等方法实现这一目标。
Onit是Mac上的AI聊天侧边栏,Cursor Chat的Mac版。Web Agent Protocol(WAP)用于实现用户、Web代理和浏览器之间的无缝交互。QwenLong-L1作为首个长文本推理大模型,在DocQA基准测试中表现出色。TranslateBookWithLLM是一个基于Ollama API的Python应用,支持大规模文本翻译,并提供Web和CLI界面。Claude Code MCP Server通过绕过权限限制增强了Claude的代码处理能力。
阿里通义实验室开源ZeroSearch,无需真实搜索引擎即可训练大模型检索-推理能力。通过模拟搜索引擎和课程式学习策略,仅需3B参数的LLM即可有效提升搜索性能,节省API成本,并兼容多种强化学习算法。
文章介绍了五种创新技术与工具,包括ZeroSearch、DeerFlow、News Agents、n8n Autoscaling System和SmartPDF。它们专注于提升LLM的搜索能力、自动化研究流程、智能新闻聚合与摘要、工作流自动扩容以及利用AI快速总结PDF内容等方向。
蚂蚁与清华大学联合推出的AReaL开源强化学习框架发布里程碑版本,提供详细的教程和高性能的SGLang框架集成,大幅提升训练速度,并在数学推理能力上达到同尺寸模型的SOTA水平。