字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题
香港中文大学、字节跳动Seed和斯坦福大学研究团队提出SeqPO-SiMT框架,实现70亿参数规模下SOTA性能。该方法通过序贯策略优化解决同声传译中的质量-延迟权衡问题,翻译质量媲美Qwen-2.5-7B离线翻译水平。
香港中文大学、字节跳动Seed和斯坦福大学研究团队提出SeqPO-SiMT框架,实现70亿参数规模下SOTA性能。该方法通过序贯策略优化解决同声传译中的质量-延迟权衡问题,翻译质量媲美Qwen-2.5-7B离线翻译水平。
MT-R1-Zero首次将R1-Zero范式扩展到机器翻译领域,通过规则-度量混合奖励机制实现无需监督微调的端到端强化学习优化。该方法在多项指标上超越了现有模型。
,再次刷新行业对开源大模型的认知。该模型在代码生成、多轮对话等任务中展现出了卓越的表现,推理能力更是
MLNLP社区是国内外知名的机器学习与自然语言处理社区,CCL 2025将于8月在山东济南举行,聚焦计算语言学最新学术和技术成果。会议征集原创研究和应用论文,接收中文和英文投稿,并提供多种期刊发表机会。
《Distilling the Knowledge in a Neural Network》是一篇更偏工程性改进的文章,但它提出了知识蒸馏这一概念,并显著提高了模型的性能。论文被Hinton、Oriol Vinyals和Jeff Dean等专家合写,但因其缺乏创新性和影响力,在2014年被NeurIPS拒收。