UC伯克利:让推理模型少思考,准确率反而更高了!
UC伯克利研究发现,强制要求模型跳过思考过程仍能保持或提高推理能力。使用DeepSeek-R1模型,在定理证明任务中仅需30%的Token就能达到与完整思考相同的准确率。
UC伯克利研究发现,强制要求模型跳过思考过程仍能保持或提高推理能力。使用DeepSeek-R1模型,在定理证明任务中仅需30%的Token就能达到与完整思考相同的准确率。
港大和蚂蚁的研究人员提出PromptCoT方法,利用思维链生成高质量问题数据,提高了模型训练的效果。他们基于Llama3.1-8B训练了一个问题生成模型,并用合成的问题数据训练了DeepSeek-R1-Distill-Qwen-7B模型,使其在MATH-500、AIME 2024以及AIME 2025上的表现优于大模型。