机器翻译
浙大×小红书发布MT-R1-Zero:强化学习重塑机器翻译,7B小模型媲美GPT-4o
MT-R1-Zero首次将R1-Zero范式扩展到机器翻译领域,通过规则-度量混合奖励机制实现无需监督微调的端到端强化学习优化。该方法在多项指标上超越了现有模型。
开源顶流集结!QwQ-32B 解锁多元玩法,OpenManus 低成本构建 AI 智能体!vLLM v1 赋能高效模型推理
,再次刷新行业对开源大模型的认知。该模型在代码生成、多轮对话等任务中展现出了卓越的表现,推理能力更是
第二十四届中国计算语言学大会(CCL 2025)征稿启事
MLNLP社区是国内外知名的机器学习与自然语言处理社区,CCL 2025将于8月在山东济南举行,聚焦计算语言学最新学术和技术成果。会议征集原创研究和应用论文,接收中文和英文投稿,并提供多种期刊发表机会。
被DeepSeek带火的知识蒸馏,开山之作曾被NeurIPS拒收,Hinton坐镇都没用
《Distilling the Knowledge in a Neural Network》是一篇更偏工程性改进的文章,但它提出了知识蒸馏这一概念,并显著提高了模型的性能。论文被Hinton、Oriol Vinyals和Jeff Dean等专家合写,但因其缺乏创新性和影响力,在2014年被NeurIPS拒收。