2 月 27 日,腾讯混元自研的快思考模型 Turbo S 正式发布。
据悉,区别于 Deepseek R1、混元 T1 等需要“想一下再回复”的慢思考模型,混元 Turbo S 能够实现“秒回”,吐字速度提升一倍,首字时延降低 44%,另外,通过模型架构创新,Turbo S 部署成本也大幅下降,持续推动大模型应用门槛降低。
在业界通用的多个公开 Benchmark 上,腾讯混元 Turbo S 在知识、数学、推理等多个领域展现出对标 DeepSeek V3、GPT 4o、Claude3.5 等业界领先模型的效果表现。
表格中,其它模型的评测指标来自官方评测结果,官方评测结果中不包含部分来自混元内部评测平台
据介绍,通过长短思维链融合,腾讯混元 Turbo S 在保持文科类问题快思考体验的同时,基于自研混元 T1 慢思考模型合成的长思维链数据,显著改进理科推理能力,实现模型整体效果提升。
架构方面,混元 Turbo S 采用了 Hybrid-Mamba-Transformer 融合模式,降低了传统 Transformer 结构的计算复杂度,减少了 KV-Cache 缓存占用,实现训练和推理成本的下降。新的融合模式也突破了传统纯 Transformer 结构大模型面临的长文训练和推理成本高的难题,一方面发挥了 Mamba 高效处理长序列的能力,也保留 Transformer 擅于捕捉复杂上下文的优势,构建了显存与计算效率双优的混合架构,这是工业界首次成功将 Mamba 架构无损地应用在超大型 MoE 模型上。
腾讯表示,作为旗舰模型,Turbo S 未来将成为腾讯混元系列衍生模型的核心基座,为推理、长文、代码等衍生模型提供基础能力。基于 Turbo S,通过引入长思维链、检索增强和强化学习等技术,腾讯自研了推理模型 T1,该模型已在腾讯元宝上线。腾讯混元表示,正式版的腾讯混元 T1 模型 API 也将很快上线,对外提供接入服务。
当前,开发者和企业用户可以在腾讯云上通过 API 调用腾讯混元 Turbo S,即日起一周内免费试用。定价上,Turbo S 输入价格为 0.8 元 / 百万 tokens,输出价格为 2 元 / 百万 tokens,相比前代混元 Turbo 模型价格下降数倍。
今年年初,扎克伯格宣布 Meta 计划用 AI 取代中级软件工程师,与此同时,Salesforce 也表示今年将暂停招聘软件工程师。种种迹象似乎都在进一步印证一个趋势——AI 正在加速取代部分软件工程岗位。在技术圈,人们一方面因 AI 带来的生产力飞跃而兴奋不已,另一方面,也难免弥漫着一丝焦虑。
3 月 3 日晚 20:00 直播,一起围绕“当下 AI 如何影响工程师的就业”、“工程师核心竞争力的再定义”等话题,探讨工程师如何应对这场变革。
今日荐文

(文:AI前线)