成本暴降88%!通义实验室、北大发布ZeroSearch,无需搜索即可激活LLM检索能力
本文提出ZeroSearch框架,无需真实搜索引擎即可激活大语言模型搜索能力。通过轻量级监督微调将LM转为检索模块,并采用课程学习逐步降低文档质量来激发推理能力,显著降低训练成本和提高性能。
本文提出ZeroSearch框架,无需真实搜索引擎即可激活大语言模型搜索能力。通过轻量级监督微调将LM转为检索模块,并采用课程学习逐步降低文档质量来激发推理能力,显著降低训练成本和提高性能。
腾讯研究团队采用强化学习结合课程采样策略训练意图识别模型,显著提升其在未知意图上的泛化能力。该方法能有效指导模型关注更具挑战性的数据样本,并通过实验验证了GRPO算法优于传统SFT方法的性能优势。
浙江大学和哈佛大学的研究团队推出了In-Context Edit(ICEdit),一款基于指令的图像编辑框架,仅需极少的文本指令即可实现精准的图像修改。
清华大学团队提出傅里叶位置编码(FoPE),通过鲁棒性强的位置编码克服Transformer在处理长文本时的周期性延拓限制,显著提升模型的长文本泛化能力。
新智元报道
具身智能公司Physical Intelligence推出π0.5 VLA模型,通过异构任务协同训练实现广泛泛化能力,机器人能在多种环境中完成复杂任务。