阿里开源Qwen2.5-VL新版本,视觉推理通杀,32B比72B更聪明
Qwen发布新版本Qwen2.5-VL-32B-Instruct,相比前代模型回复更符合人类偏好、数学推理能力更强、图像细粒度理解与推理表现优异。
Qwen发布新版本Qwen2.5-VL-32B-Instruct,相比前代模型回复更符合人类偏好、数学推理能力更强、图像细粒度理解与推理表现优异。
DeepSeek V3.0324版本发布,支持更宽松的MIT开源协议。模型参数为685亿,已可在Hugging Face上下载并部署。新版本在数学推理和前端开发方面表现出色,甚至可以轻松创建漂亮的HTML5、CSS和前端网页。
阿里通义千问Qwen发布新模型Qwen2.5-VL-32B-Instruct,尺寸为32B,具备更强的数学推理能力、图像解析能力和内容识别准确度,在多个基准上达到同规模SOTA表现。
新模型Qwen2.5-VL-32B-Instruct在视觉理解和数学推理方面表现出色,并且其纯文本能力优于GPT-4o mini。该模型已在GitHub和Hugging Face上开源,可用于多种场景,包括对图片的理解、解决复杂的数学问题等。
腾讯自研大模型混元T1正式版上线,数学高考题准确率达90%。它能解出复杂的数学方程,并在金融、医疗等领域发挥巨大作用。该模型展示了AI向真正的逻辑推理领域进军的能力,引发关于技术突破与伦理困境的思考。
本文介绍了一种新的多模态大规模强化学习框架MM-Eureka,该框架能够稳定地训练包括InternVL2.5-Instruct-8B和InternVL2.5-Pretrained-38B在内的多种大型模型,并使用较少的数据实现了性能的提升。
近日,中国科学院自动化研究所推出多图数学推理全新基准MV-MATH,旨在全面评估MLLM(多模态大语言模型)的数学推理能力。结果发现,包括GPT-4o、QvQ等先进模型在该数据集上的表现均不及格。研究团队指出,现有的多模态数学基准大多局限于单一视觉场景,而MV-MATH则包含多个图像和文本交织而成的复杂多视觉场景,覆盖11个数学领域,并分为三个难度级别。
阿里巴巴团队开源了最新研发的大模型QwQ-32B,该模型在数学推理、代码生成和逻辑分析等领域表现出色,性能媲美DeepSeek-R1。其轻量化部署特性使其成为中小团队的理想选择。
阿里开源发布新推理模型QwQ-32B,参数量为320亿。其性能可媲美6710亿参数的DeepSeek-R1满血版。千问团队通过大规模强化学习提升了模型的推理能力,在数学和编程任务上表现优异,并提供了API使用指南。
科大讯飞星火X1大模型参数量升级至70B,并在数学推理任务上超越DeepSeek R1和OpenAI o1。该模型通过算法优化与垂直场景深度融合,展现了国产AI大模型的技术实力和发展新路径。