机器之心
3710亿数学tokens,全面开放!史上最大高质量开源数学预训练数据集MegaMath发布
MegaMath 是一个包含3710亿tokens的开源数学推理预训练数据集,覆盖网页、代码和高质量合成数据三大领域。它首次在规模上超越了DeepSeek-Math Corpus(120B),代表从‘只靠网页’到‘面向推理’的重大跨越。
RL for LLMs,强化学习的 Scaling Law 才刚刚起步?
近期研究者通过奖励模型增强通用奖励模型在推理阶段的可扩展性,同时使用强化学习提升LLM性能。然而,当前强化学习算法仍有改进空间,奖励稀疏性是主要难点之一。
IC-Light的视频版本来了,RelightVid:强光动态环境下的视频光照编辑神器
复旦大学等机构学者发布视频版本光照编辑成果,支持时序一致性、强光源场景下的高质量光影编辑,构建全新数据集用于评估。
200B参数击败满血DeepSeek-R1,字节豆包推理模型Seed-Thinking-v1.5要来了
ing-v1.5
的技术报告。从报告中可以看到,这是一个拥有 200B 总参数的 MoE 模型,每次