智谱全面发力开源,推理模型很快,但快的不止模型

今天关于智谱发生了三件大事。
开源基座模型、推理模型、沉思模型;上线全球域名 Z.ai;正式启动 IPO 进程。
在正式进入主题之前,先来夸一下这次的文案:该 Z.ai 的,都 Z.ai.(不知道为什么对这种广告语很敏感)
1. 点名自己购买了顶级域名 Z.ai有点对标x.ai那味儿?)
2. 表明自家模型齐全,各种尺寸该有的都有;
3. 还传递一种智谱 AI 时刻在你身边的感觉,该在的时候,都在(一生在做阅读理解的中国人了属于是)
首先是模型 GLM-4-32B-0414。

该模型拥有 320 亿参数,性能已接近甚至超过一些更大体量的主流模型。它用 15 万亿高质量数据预训练,特别强化了推理类任务。重点提升了模型在理解指令、写代码、调用函数等方面的能力。目前它在代码生成、搜索问答、写报告等任务上表现出色,部分评测指标已接近 GPT-4o、DeepSeek-V3 等超大模型。

Z.ai 上线了该基座模型,支持 Artifacts 功能,对生成的 HTML 和 SVG 进行可视化查看,让我们在 Z.ai 上做一个测试。
例如,做一个大气的小米 su7 的落地页。
效果还挺 OK 的,审美在线。
再比如制作一个流程图,效果也过关。
然后是本次开源的重点 GLM-Z1-32B-0414。

GLM-Z1-32B-0414 是一款专注深度思考的推理模型,基于基座模型 GLM-4-32B-0414 打造,并通过强化学习等技术重点提升了数学、代码、逻辑等能力。

在多个测试中(如 AIME、LiveCodeBench、GPQA),它的表现已经接近参数量大出 20 倍的 DeepSeek-R1,展现出强大的数理推理能力,适合解决更复杂、更挑战性的任务。

此外,小参数量的 GLM-Z1-9B-0414 也实现了在数学推理和通用任务上的高性价比表现,是轻量部署场景的可选项。

同时除了开源外,基座模型和这个推理模型也上线了智谱 MasS 开放平台,面向企业与开发者提供 API 服务。

上线的推理模型分为三个版本,分别满足不同场景需求:

    我们将三个版本分别接入一起测评,抛开回复质量不谈,实测推理效果确实超级快。
    智谱说自己的极速版最高能 200tps,是国内最快的推理模型,确实也没错。
    一般来说,在一些复杂任务、多步任务上推理模型的表现会优于非推理模型,但需要的耗时会更长,现在智谱的 Z1 在既保证一定模型回复质量的同时,大幅提升了推理速度,在许多推理模型的应用场景上,得到了更好的用户体验。
    智谱还开源了一个沉思模型 GLM-Z1-Rumination-32B-0414。

    不止反思,更是沉思。前段时间上线的 AutoGLM 沉思的核心就是它。

    该模型能在深度思考过程中整合搜索工具处理复杂任务,并运用多种规则型奖励机制来指导和扩展端到端的强化学习训练。支持“自主提出问题—搜索信息—构建分析—完成任务”的完整研究闭环,从而在研究型写作复杂检索任务上的能力得到了显著提升。

    例如让它搜索最近两天关于智谱的新闻,实测效果如下。

    最后再来看看定价。
    速度更快,价格更低,一图流如下。
    智谱的推理模型速度很快,但快的不止模型,还有智谱的 AI 进程。
    近日,智谱已在北京证监局完成辅导备案,正式启动 IPO 流程,成为首家进入上市进程的大模型创业公司。
    无论是 DeepSeek 还是智谱,国产 AI 正在加速奔跑,愿我们共同见证它从追赶走向引领。

    (文:特工宇宙)

    发表评论

    ×

    下载每时AI手机APP

     

    和大家一起交流AI最新资讯!

    立即前往