吴恩达推出LLM 后训练免费课程,覆盖三大调优方法:SFT、DPO、RL
吴恩达发布新课程介绍如何将LLM转化为能遵循指令的助手,课程内容涵盖三种后训练方法:监督微调、直接偏好优化与在线强化学习,并强调动手实践的重要性。
吴恩达发布新课程介绍如何将LLM转化为能遵循指令的助手,课程内容涵盖三种后训练方法:监督微调、直接偏好优化与在线强化学习,并强调动手实践的重要性。
该研究比较了DPO和GRPO在自回归图像生成中的应用效果,发现DPO在域内任务上表现更好,而GRPO在域外泛化能力上更出色。研究还探讨了不同奖励模型及扩展策略对这两种算法的影响。
港科大Harry Yang团队联合Everlyn AI提出LightGen模型,仅需8张GPU训练即可实现近SOTA的高质量图像生成效果。该模型采用数据蒸馏和直接偏好优化策略,显著降低了数据规模与计算资源需求。
新智元报道
编辑:LRS
【新智元导读】
Allen Institute for AI(AI2)发布