Datawhale大会
2025火山引擎 Force 原动力大会
2025火山引擎 Force 原动力大会
6月11日-12日,北京国家会议中心人山人海,2025 火山引擎 Force 原动力大会如约而至。
作为开发者社区的一员,这场大会上的一系列新发布让我们感受到了:这个 Agent 技术落地元年的关键节点,火山引擎有属于自己的独特理解。
大会发布了豆包大模型 1.6、PromptPilot 提示词优化平台和 MCP 服务等一系列成果,集中展示了火山引擎AI云原生的全新范式。这背后需要具备强推理、多模态、低成本的强大模型,从而支撑起更复杂的 Agent,而 Agent 开发新范式也构建起了覆盖大模型开发全链路的工具矩阵,为开发者和企业提供从 Prompt 优化到 Agent 落地的一站式方案。
随着 Agentic AI 应用探索进入实质阶段,一起来看看火山引擎如何凭借 Agent 开发新范式来释放智能生产力的新原动力。
AI 云原生:从模型到智能体的范式演进
大会上,火山引擎提出了面向 Agent 时代的“AI云原生”理念。
AI 发展经历三次范式跃迁,从感知 AI,到生成式 AI,再到如今的智能体(Agentic AI),每一次都重塑了人机协作的边界。且每一代技术的核心载体也不断演进,从 Web 页面到移动 App,再到如今的智能体(Agent)。在这个转折点上,传统技术栈已难以支撑 AI 时代的需求,必须围绕 AI 云原生重构未来的技术架构。
所谓 AI 云原生,就是让应用以 AI 智能体为中心构建和生长的新模式。这意味着 AI 不再是附属的插件,而是应用的内核,从开发之初就与数据、工具和环境深度融合。
可以看到,以 Agent 为核心构建应用正在成为新潮流。然而,构建一个成熟的 Agent 系统并非易事:从创意构思到应用开发再到部署运营,链路漫长且涉及繁杂的工具生态。为此,火山引擎打造了 AI 云原生技术栈,旨在大幅降低开发门槛,加速 Agent 从概念走向应用。
火山引擎提出了一套 AI 云原生理念希望帮助企业打造 Agentic AI,成为企业智能体转型的“使能者”,而非单纯的资源提供者,在降低技术风险的同时,最大化释放 Agent 的智能价值。换言之,AI 云原生范式不仅提供技术工具,更扮演企业智能升级的催化剂,加速 AI 从技术走向生产力,让 AI 真正成为像电一样的基础设施。
豆包大模型 1.6:更强大、更全面、更便宜
本次大会,火山引擎正式发布豆包大模型 1.6。
作为火山引擎 AI 云原生架构的“模型基座”,豆包大模型 1.6 系列一举迈入全球大模型第一梯队,在复杂推理、数学竞赛问题、多轮对话、指令遵循等多项权威评测中表现优异。
本次升级推出了三款型号:
-
主力版:灵活支持 thinking/non-thinking/自适应思考三种模式的 Doubao-Seed-1.6 模型; -
思考版:豆包目前最强的思考模型 Doubao-Seed-1.6-thinking; -
极速版:以及具备超低延迟和出色的视觉理解能力的 Doubao-Seed-1.6-flash 模型;
在众多权威测评集上,豆包大模型 1.6 得分均位居国际第一梯队。在推理能力、多模态理解能力、GUI 操作能力上具备领先优势。

更令人称道的是豆包 1.6 的原生多模态理解和图形界面操作能力。简单来说,豆包1.6不仅“看图说话”,还能看图行动——驱动智能体在浏览器、Excel 等软件中进行交互操作。这样的能力让智能体可以像人类一样读取网页、点击按钮、填写表单,完成一系列跨软件的任务执行。
这意味着我们可以利用豆包 1.6 完成复杂业务流程的案例:例如自动打开电影网站、筛选当日北京上映电影并按评分排序,最后选定高分影片下单购票,全程由 AI 自主完成。这种多模态理解与图形界面操作能力,标志着豆包 1.6 已为智能体赋予了感知环境并采取行动的“大脑”,突破了传统纯文本模型的桎梏。
除了更“强”,豆包 1.6 也变得更“便宜”。
在 Agent 大量消耗 Tokens 的场景下,成本是规模化应用的阿喀琉斯之踵。为此,豆包大模型 1.6 采用了统一定价模式,无论是否开启深度思考模式,无论是文本还是视觉,tokens 价格均一致,按照输入上下文长度区间定价。

随着模型能力的进步,AI 有望成为开发过程的“调度者”,通过调用不同的 Agent 和工具,让软件开发实现真正的 All-in-One,显著降低开发门槛并提升效率。
豆包 1.6 正是这一理念的最佳注脚:多模态深度思考的强大模型、大幅降低的使用成本,以及与工程实践的紧密结合,使得规模化的 Agent 应用成为可能。
PromptPilot:人与大模型沟通的「嘴替」
如果说豆包1.6是 Agent 的大脑,PromptPilot 则可以看作人与大模型沟通的嘴替。
在大模型应用落地过程中,开发者经常面临需求表达模糊、Prompt 调试低效的痛点。调教一条精妙的 Prompt 往往需要反复试错,这对初学者和领域专家都构成了门槛。
火山引擎推出的 PromptPilot 平台,正是为了解决这一难题。

有了它,用户不需要精通大模型原理,只需用行业术语或大白话描述需求场景,PromptPilot 就能自动理解需求、生成高质量的 Prompt,并优化模型输出。
PromptPilot 通过“需求理解 -> 问题生成 -> 输出优化”三个环节,将 Prompt 调试效率提升了 300%。这意味着过去可能要花费数小时甚至数天手工调整的提示词,现在借助智能工具几分钟就能完成迭代。
对于行业应用而言,这无疑建立了一个闭环的 Prompt 优化流程——需求->Prompt->反馈优化->再应用,不断提高智能体对业务语境的理解力。可以说,PromptPilot 让“大模型调教”不再像炼金术般晦涩难懂,而变成了一键即可执行的工程流程,极大降低了企业定制 AI 应用的门槛。
MCP 服务:构建一站式 Agent 开发与部署环境
在大会上,另一个吸引人的发布是火山引擎的 MCP Servers 服务。
还是把大模型比作 Agent 的大脑,MCP 则扮演着 Agent 的躯体和四肢:它连接大脑与外部世界的一切所需。从概念验证到真正落地,Agent 开发往往面临“最后一公里”的挑战——如何将模型、工具、环境有机结合起来,打通从开发到部署的全流程?MCP 服务的诞生正是为了解决 Agent 从理念到产品的链路断层问题。
MCP Servers 的本质是一个超级连接器:一方面,它将火山引擎的各类云服务能力进行封装,供 Agent 以类似调用函数的方式使用;另一方面,它通过标准化协议把不同的 Agent 开发工具和平台贯通起来,形成一个统一的生态。
在 MCP 出现之前,开发者构建一个复杂 Agent,往往需要东拼西凑多个组件:调用模型API、对接数据库/云存储、引入外部工具接口,再将这些杂糅在一起部署运行。任何一个环节的阻滞,都会造成“最后一公里”的中断。而 MCP 提供了一个模块化、一致化的解决方案:开发者只需按照规范注册配置,即可让 Agent 具备调用云端各种资源和工具的能力,大幅简化了系统集成的难度。
具体来说,火山引擎已在 MCP 生态广场中内置了 200+ 种基础 MCP 服务,覆盖从搜索、地图、企业办公,到内容生成、数据库、函数计算等各类常用功能。

这些服务由火山官方和第三方提供,经 MCP 协议标准化后,Agent 调用它们就像调用模型一样简单。更方便的是,MCP 已经和多款开发工具深度集成,包括AI原生 IDE TRAE、方舟开发者体验中心以及扣子开发平台等。在 TRAE 或扣子中,开发者只需选择需要的 MCP 服务并生成一段JSON 配置,即可一键接入相应功能。
MCP 的出现意味着,过去需要多名工程师耗时数周搭建的运行环境,现在几乎零门槛、一键即可打通。
从此开发者可以一站式完成 Agent 应用开发的端到端流程!
对于开发者来说,MCP 提供了如同“乐高积木”般的即插即用能力:想让 Agent 获取实时资讯?调用搜索服务即可;需要 Agent 存储记忆?接入云数据库服务;完成开发后还愁部署上线?MCP 直接帮你在火山引擎云上托管,一键生成应用访问链接。
所有这些繁琐环节都被打包进 MCP 的底层支撑里,开发者能够更专注于 Agent 的逻辑和策略本身,而不必为环境搭建和维护分心。这种 AI 云原生的 Agent 开发环境极大提高了智能应用从开发到上线的效率,让“小团队也能造出大智能”。
TRAE 和扣子升级: 助力企业高效构建 AI 开发范式
火山引擎为帮助企业高效开发 Agent,在 TRAE 和扣子上面也有直接的体现。
首先来看国内首个 AI 原生 IDE 产品 TRAE ,TRAE 不止于 AI 代码生成,而是要做 AI 开发。
它为开发者提供了代码补全、局部代码生成功能,支持代码重构、批量修改、知识问答等复杂任务,有效解决了开发各环节跳端效率低、AI 能力只覆盖编码场景而非全流程得痛点。
TRAE 之所以要深耕 AI 软件开发,是因为 AI 时代对话将成为新的终端,用户输入的不再是代码,而是任务目标和标准;AI 在统一的工作空间中理解、组织并交付结果。从 AI 写代码 到 AI 做开发,从工具增强到流程重构,从 TRAE 看到了火山引擎对未来开发形态的思考。
据说 TRAE 的下一个版本还将整合不同 Agent 和工具,协调任务流程,实现自动串联操作,逐步从 AI 辅助编程向支持 AI 开发全流程进阶。
再来看一下为了适配 Agent 的发展而全面升级的扣子平台。
扣子用 Agent 重塑生产力,它由原先的 Agent 低代码开发平台,升级成为覆盖 Agent 低代码开发、全代码开发,Agent 调优和 Agent 协作的全生命周期平台。

这里重点提一下扣子罗盘和扣子空间。
扣子罗盘服务于任何搭建形式的 Agent 调优,能够在 Agent 评测、观测、效果调优、数据飞轮等能力建设上,高效地帮助低代码开发者和全代码开发者持续迭代运行 Agent。前面提到的 Trae 和下面提到扣子空间也都是基于扣子罗盘构建和调优,正是因为有了罗盘的助力,才能让两个产品快速迭代、快速优化。
扣子空间则是用户和 Al Agent 协同办公的最佳场所。在扣子空间里有精通各项技能的「通用实习生」以及各行各业的「领域专家」,开发者可以利用扣子空间完成很多智能体操作:撰写调研报告、制作PPT、制作互动式教学网站、网页小游戏、制订旅游攻略等等。

此外,本次大会上亮相的 veRL、DeerFlow、UI-TARS 等开源项目也为 AI 云原生和AI 开发范式做了强有力支撑。
比如 veRL 强化学习框架,它可轻松扩展多种强化学习算法,无缝集成现有 LLM 基础设施与模块化 API,助力开发者快速搭建 RL 模型开发管线,提升对话规划、智能编程、复杂策略优化等场景的开发效率与资源利用率。
目前该项目已经取得了9.6k star。
开源地址:https://github.com/volcengine/verl
尾声:原动力启航,智未来可期
火山引擎此次带来的 Agent 开发新范式,融合了模型、工具和平台的创新,为智能体技术的落地带来了全新的解题思路。从产业观察者的角度来看,这套范式之所以令人激动,正是因为它有望破解过去阻碍 Agent 规模化应用的四大难题:模型能力瓶颈、成本与算力掣肘、开发链路冗长、生态闭环迭代。
整个 Force 大会展示的这套 AI 云原生全栈服务(豆包1.6、 PromptPilot、火山引擎 MCP 服务等),清晰地传递出一个信号:火山引擎正通过系统性解决上述关键挑战(模型、成本、链路、生态),推动 Agentic AI 技术从概念探索迈向大规模应用实践。
可以预见,一个转折点正静静来临:软件应用开发范式正从过去“调用外部 AI”渐渐转向“由 AI 孕育生成”。面对这一变化,我们需要做的,正是理解并拥抱这种新范式,让自己的想象力在 AI 原生的沃土中开花结果。
在这个 Agentic AI 元年,AI 云原生的新风已起,我们不妨大胆畅想:当 AI 不再是冰冷的指令执行,而成为有自主智能的数字劳动力,我们的软件世界将迎来何等蓬勃的生命力?
让我们拭目以待,在火山引擎等创新者的引领下,Agentic AI 之船正破浪前行。新时代的原动力已然觉醒,它必将推动智能产业驶向更加壮阔的未来。
开发者们,请拥抱这一刻,把握这一代技术浪潮,让我们共同迎接由 Agentic AI 所开创的璀璨新篇章!

(文:Datawhale)