3710亿数学tokens,全面开放!史上最大高质量开源数学预训练数据集MegaMath发布
MegaMath 是一个包含3710亿tokens的开源数学推理预训练数据集,覆盖网页、代码和高质量合成数据三大领域。它首次在规模上超越了DeepSeek-Math Corpus(120B),代表从‘只靠网页’到‘面向推理’的重大跨越。
MegaMath 是一个包含3710亿tokens的开源数学推理预训练数据集,覆盖网页、代码和高质量合成数据三大领域。它首次在规模上超越了DeepSeek-Math Corpus(120B),代表从‘只靠网页’到‘面向推理’的重大跨越。
阿里通义千问和DeepSeek分别开源了Qwen2.5-VL-32B-Instruct和DeepSeek-V3-0324两个模型,前者主要提升了数学推理、细粒度图像理解与推理能力,并且调整输出样式以提供更符合人类偏好的答案;后者则强调编程能力和前端开发功能。
DeepSeek-V3-0324 在数学推理和前端开发方面表现优于 Claude 3.5 和 Claude 3.7 Sonnet,这是 DeepSeek 最佳非推理模型。
Qwen发布新版本Qwen2.5-VL-32B-Instruct,相比前代模型回复更符合人类偏好、数学推理能力更强、图像细粒度理解与推理表现优异。
DeepSeek V3.0324版本发布,支持更宽松的MIT开源协议。模型参数为685亿,已可在Hugging Face上下载并部署。新版本在数学推理和前端开发方面表现出色,甚至可以轻松创建漂亮的HTML5、CSS和前端网页。
阿里通义千问Qwen发布新模型Qwen2.5-VL-32B-Instruct,尺寸为32B,具备更强的数学推理能力、图像解析能力和内容识别准确度,在多个基准上达到同规模SOTA表现。
新模型Qwen2.5-VL-32B-Instruct在视觉理解和数学推理方面表现出色,并且其纯文本能力优于GPT-4o mini。该模型已在GitHub和Hugging Face上开源,可用于多种场景,包括对图片的理解、解决复杂的数学问题等。