大模型微调样本构造的trick 下午10时 2024/12/08 作者 极市干货 通过全参数微调实现ChatGLM2-6B模型的优化,重点在于多轮对话训练样本组织方式改进。采用session级别训练,避免了数据重复膨胀和低效问题,提高了训练效果,并实现了与原版相比有显著提升。