
邮箱|yokyliu@pingwest.com
2025年4月29日凌晨,距离通义千问Qwen3正式发布还有5小时,X和GitHub上的开发者们已经搬好小板凳蹲守发布。开源社区的技术爱好者们熬夜刷新,等待第一时间测试和体验这款备受期待的中国大模型新作。
甚至中国开发者已经蹲守通宵,在发布凌晨5点发布的第一时间测试并发布了评测报告。
这样的现象曾经只在OpenAI发布新模型前出现过如此关注度。如今,中国大模型也能引发全球开发者如此热切的期待,不仅是模型技术的突破,也是因为对于开发者和企业而言,能够真正用起来,产生产业价值。
“在为企业在国内选模型,基本上只有Qwen和DeepSeek两个选项,但R1参数太大了,很多场景不需要那么强的性能。对比来看,千问系列提供了从小到大全系列参数规模的选择,在任何场景下都能找到适合的模型。”Agent数字员工应用公司语核科技创始人翟星吉告诉我们。
尤其在Qwen3发布之后,模型尺寸从0.6B到235B再度拓宽光谱,并且进一步降低了部署和推理成本之后,企业和开发者的门槛再度被磨平,也为应用生态的爆发奠定了基础。
“Qwen3以后,我才真正敢投大模型应用。”一位投资人对硅星人坦白:“端侧算力不足是事实,如果一味用云端模型没法本地部署,很多功能被限制用户也会担心隐私的问题。”
大模型竞赛的第一赛段已经过去,淘金之后企业和开发者能够选择有足够性能的模型其实并不多,而Qwen似乎已经成为了中国环境的首选。
以服务产业为目标做模型
回顾Qwen系列模型的发展历程,能够发现其与其他大模型的核心区别:不是单纯追求技术领先,而是以服务产业实际需求为导向。
做“精”还是做“全”,DeepSeek和Qwen代表着这两个技术的方向。
Qwen系列模型以“全谱系”布局策略,为不同场景提供针对性解决方案。从参数规模来看,Qwen3涵盖从轻量级的0.6B、1.7B、4B、8B、14B、32B稠密模型,到30B-A3B和235B-A22B的混合专家模型,覆盖了从端侧到云端的所有部署需求。在模型类型上,更大的Qwen系列不仅有基础语言模型,还包括推理模型、多模态视觉理解(VLM)、图像生成、视频理解等全模态能力。
翟星吉指出:“它的模型系列覆盖得很全,从文本到VL多模态识别,再到推理模型,你会发现全套它都有。它很早就探索了QVQ,就是视觉推理模型。”
这种全谱系布局使得各类企业都能找到适合自己场景的模型。例如,儿童智能玩具创业公司跃然创新创始人李勇告诉我们:“之前受限于芯片性能、成本和功耗,无法在端侧部署推理模型。但Qwen3-0.6B的推出让端侧部署成为可能,端侧部署意味着无需联网,解决了隐私问题,同时消除了网络限制和Token计费成本。”
更广泛的应用场景看,Qwen为各类终端设备提供了精准匹配的解决方案:0.6B和1.7B模型支持开发者用于推测性解码和小终端部署;4B模型适合手机端侧应用优化;8B模型可针对电脑或智能汽车座舱场景设计;14B模型适合普通开发者和中小企业使用,资源需求适中;32B模型是企业最喜欢的规模,支持大规模商业部署;MoE模型则为追求极致性能的场景提供服务。
翟星吉解释道:“你像我们给客户部署,如果要推理模型,我肯定会考虑大部分客户资源情况,很多人会选择基于千问32B的流量版本的推理模型,或者直接用QWQ–32B。”
相比之下,Llama比Qwen更早开源,但却在后续的发展中逐渐成为了开源的第二选择。首先其在参数规模选择上存在明显短板。Llama的大模型如400B-500B参数规模对企业而言难以部署,需要庞大的计算资源;而70B参数的模型又被开发者普遍认为能力不足。
相比之下,千问72B被认为刚好达到了企业能负担的最大参数规模,在性能和成本之间取得了平衡。另一位开发者解释道:“我们测算下来,企业最多就是部署72B的模型,再大就部署不了了。”
其次,Llama在多语言特别是中文能力上明显不足。“中文语境下,Llama语料数据比较少,它只有5%的多语种数据,95%的英语语种数据。所以大家会觉得它在中文场景下有点笨。”这导致Llama在全球化应用场景中的适应性不佳,尤其对中文开发者而言,其实用价值大打折扣。
这种策略的成功体现在Qwen在开源社区获得的广泛认可上:全球衍生模型数量已超过10万,下载量超过3亿,在HuggingFace社区2024年全球模型下载量中占比超30%。在2025年2月的Huggingface全球开源大模型榜单中,排名前十的开源模型全部都基于Qwen二次开发。
为预训练Agent,提供BaseModel
“现在一个Agent不开出多模态的话,肯定是没有前途的。”上述投资人讲道:“在当前阶段,构建智能Agent需要模型具备强大的多模态理解能力、推理能力和自主决策能力。”当Agent俨然已经成为了下一代应用的核心,而构建高效Agent需要强大的底层模型支持。
有了在制造业深耕Agent的诸多尝试后,翟星吉认为现在到了一个Agent的关键节点,“我们现在做的Agent,比如像Manus背后肯定还是有手搭的workflow。如果尝试不再是固定流程的,它是智能判断的,我需要找这个人干什么,我需要下单,我需要找这个人验证,我需要取消,那在这场景下,就需要基于一个强大的base model做预训练的Agent模型。”
“首先它应该是一个推理模型,这是基础的。然后在推理模型上去做再训练,把整个任务的第一步、第二步、第三步的路径数据,以及在每一步的思考数据,为什么要这么做的思考数据,以及最终的结果数据全部标出来,标出来之后用强化学习的方式让它不停地去迭代。”
这种训练方法本质上是教会模型如何进行任务分解、如何思考以及如何利用工具,而千问作为基础模型提供了强大的语言理解能力和逻辑推理框架。翟星吉进一步补充:“我们到现在都是自己写推理模板,让大模型去按照这个推理模板一步一步走,但未来希望Agent一步到位就出来推理模板,不需要我们去提供了,它自己会思考,自己会形成一个推理的架构和路径模板,这对基础模型的能力要求很高。”
Qwen3的混合推理能力,为Agent开发提供了更灵活的思考与决策框架。在推理模式下,模型会执行更多中间步骤,而在非推理模式下,模型则可快速遵循指令生成答案。这种能力与人类思维极为相似:对简单问题快速作答,面对复杂问题则深思熟虑。在开发智能Agent时,这种混合推理能力显得尤为重要。
千问还进一步通过Qwen-Agent与MCP(Model-as-Copilot Platform)的结合降低了开发门槛,这一创新举措使得开发者能够以更低成本快速构建智能应用。传统的Agent开发需要专业的AI工程师和大量资源投入,而Qwen-Agent框架与MCP平台的结合,创造了一种’低代码’的Agent开发模式。开发者只需定义任务流和工具集,系统会自动处理复杂的推理过程和执行路径。这种方式极大地简化了开发流程,使得没有深厚AI背景的普通开发者也能构建功能强大的智能应用。
MCP平台作为Agent的运行环境,提供了工具调用、权限管理、数据处理等基础设施,而Qwen-Agent则专注于智能决策和推理能力。以前构建一个能处理客户服务的Agent,可能需要1-2个月的开发周期和专业AI团队。现在通过Qwen-Agent与MCP的结合,一个普通开发者可能只需1-2周就能完成原型开发,实现更高质量的交互体验。
这种降低门槛的方式使得AI应用开发呈现“平民化”趋势,让更多中小企业和个人开发者也能参与智能应用创新,才能带来应用的爆发。
开源不是口号,是“生存方式”
如今的一切开放,其实是建立在真开源的基础上。
“Qwen是真的很大方,最好性能的模型都拿来开源。”翟星吉感叹道。
从最小的0.6B到最大的72B,再到新一代的235B MoE模型,所有规格都对外开源;不保留最好的模型作为闭源产品,而是将每个级别最好的模型完整开源;持续更新迭代,不断推出新的模型和能力,从文本到多模态,从对话到推理的全方位开放。
不是保留最好的模型作为闭源产品,而是将每个级别最好的模型完整开源。事实上,基座模型厂商通常开源性能有限的小模型,将高性能大模型保留为付费API服务,从而形成完整的商业闭环,才是行业常见的开源模式。
而Qwen全部尺寸模型向社区开放,没有任何能力衰减或功能限制,不只是预训练模型,还包括SFT微调版本、对话版本和各种专业领域的指令优化模型,为开发者提供了即取即用的解决方案,同时允许开发者进行深度修改和二次开发,而不是像某些厂商那样只提供有限访问权限的“半开源”模式。这种无保留的开放态度,已经不再是开源战略,而是生存之本。
“到2024年年中多模态模型开始逐步成熟之后,千问是最开始推VL模型的,从千问2.0就开始有多模态模型,然后2.5的多模态更强了。而Llama3.2才支持图像识别,已经晚了”。翟星吉回忆到,Qwen团队“太卷了”。
模型的开放与云的服务形成了良好的闭环。阿里云作为国内第一的云厂商,需要有更多客户在上面调用,提供MaaS服务。当它将开源生态做起来以后,养成了品牌心智,如果需要闭源模型,自然也会选择千问。
另一位to B领域的创业者讲道:“如果我们现在在国内去做应用,能用云,我们一定优先用云,没有运维成本,没有部署成本。但如果客户一定要私有化,那我们就会选择开源模型部署,尤其是在一些特殊行业,如金融、政府和医疗领域,出于数据安全和合规要求,往往需要完全私有化部署。”
在全球范围内,目前模型和云能够形成良性闭环的,也就只有阿里一家。微软选择与OpenAI合作提供服务,AWS选择与Anthropic合作。
从技术到产业,从研究到应用,Qwen系列通过全面开源的策略,不仅赢得了开发者的青睐,也在实际商业环境中找到了自己的位置。开源不只是分享代码,它是构建生态的方式,是连接开发者和企业的桥梁,更是在激烈的大模型竞争中生存和发展的根本。
(文:硅星GenAI)