Dify构建智能体
橙C助手,公众号:AI大模型观察站大模型工具Dify应用-Agent智能体
工作流(Workflow)简介
工作流(Workflow) 是 Dify 的核心功能之一,通过将复杂任务分解为更小的步骤(节点),降低系统复杂度,减少对提示词技术和模型推理能力的依赖,从而提高 LLM 应用在复杂任务中的性能,提升系统的可解释性、稳定性和容错性。
Dify 的工作流主要分为两种类型:
- Chatflow: 面向对话类场景,包括客户服务、语义搜索以及其他需要在构建响应时进行多步逻辑的对话式应用程序。为解决自然语言输入中用户意图识别的复杂性,Chatflow 提供了问题理解类节点,并增加了对话机器人特性的支持,如对话历史(Memory)、标注回复、Answer 节点等。
- Workflow: 面向自动化和批处理场景,适用于高质量翻译、数据分析、内容生成、电子邮件自动化等应用程序。为解决这些场景中的复杂业务逻辑,工作流提供了丰富的逻辑节点,如代码节点、IF/ELSE 节点、模板转换、迭代节点等。此外,还提供定时和事件触发的能力,方便构建自动化流程。
常见应用案例:
- 客户服务: 通过将 LLM 集成到客户服务系统中,自动化回答常见问题,减轻支持团队的工作负担。LLM 可以理解客户查询的上下文和意图,实时生成有帮助且准确的回答。
- 内容生成: 无论是创建博客文章、产品描述还是营销材料,LLM 都可以生成高质量内容。只需提供一个大纲或主题,LLM 将利用其广泛的知识库制作引人入胜、信息丰富且结构良好的内容。
- 任务自动化: 可与各种任务管理系统集成,如 Trello、Slack、Lark,以自动化项目和任务管理。通过自然语言处理,LLM 可以理解和解释用户输入,创建任务,更新状态和分配优先级,无需手动干预。
- 数据分析和报告: 用于分析大型知识库并生成报告或摘要。通过提供相关信息给 LLM,它可以识别趋势、模式和洞察力,将原始数据转化为可操作的智能。对于希望做出数据驱动决策的企业来说,这尤其有价值。
- 邮件自动化处理: LLM 可以用于起草电子邮件、社交媒体更新和其他形式的沟通。通过提供简要的大纲或关键要点,LLM 可以生成结构良好、连贯且与上下文相关的信息,节省大量时间,并确保回复清晰和专业。
如何开始
- 创建工作流: 从一个空白的工作流开始构建,或者使用系统模板帮助你开始。
- 熟悉基础操作: 包括在画布上创建节点、连接和配置节点、调试工作流、查看运行历史等。
- 保存并发布工作流: 确保工作流配置正确后,保存并发布。
- 运行工作流: 在已发布应用中运行,或者通过 API 调用工作流。
实战
在 Dify 平台中,创建工作流(Workflow)可以帮助您将复杂任务分解为多个步骤,自动化处理流程。以下是创建工作流的详细步骤:
步骤 1:登录 Dify(https://cloud.dify.ai/) 平台

步骤 2:创建新应用
在主界面上,点击“创建空白应用”。在弹出的窗口中,选择“工作流”作为应用类型,填写应用的名称和描述,然后点击“创建”。

步骤 3:设计工作流
进入工作流设计界面后,您将看到一个可拖拽的画布,默认情况下只有一个开始节点。
添加变量: 在开始节点中,您可以添加全局变量。例如,添加一个名为 city 的变量,用于后续节点的条件判断。
添加条件分支: 在开始节点后,点击加号(+)添加一个 IF 条件分支节点。设置条件,例如,当变量 city 包含“苏州”时,执行特定任务;否则,执行其他任务。
添加任务节点: 根据条件分支,添加相应的任务节点。例如,在条件成立时,添加一个“天气预报”功能节点;在条件不成立时,添加一个“大语言模型问答”功能节点。
添加结束节点: 在每个任务节点后,添加结束节点。在结束节点中,设置输出变量,以便查看任务执行结果。

步骤 4:配置节点
根据每个节点的功能,配置其参数。例如,配置天气预报节点时,需要调用外部 API,并设置相应的请求参数和处理响应数据。

步骤 5:调试与发布
完成工作流设计后,您可以使用调试功能测试工作流的执行情况,确保每个节点的配置正确。调试通过后,点击“发布”将工作流投入使用。

步骤 6:运行工作流
发布后的工作流可以手动运行,或通过设置触发条件自动运行。您可以在运行历史中查看每次执行的结果和日志,方便排查问题。

注意事项:
-
接口调用: 如果工作流中需要调用外部 API,例如天气预报服务,需要在相应节点中配置 HTTP 请求,并处理返回的数据。
-
变量管理: 合理使用全局变量和上下文变量,确保数据在各节点间正确传递。
-
错误处理: 在关键节点添加错误处理机制,确保工作流在遇到异常时能够妥善处理。
通过上述步骤,您可以在 Dify 平台中创建并管理工作流,实现任务的自动化处理,提高工作效率。
总结
Dify 工作流(Workflow)是一种将复杂任务拆分为更小步骤的机制,旨在降低系统复杂度,减少对提示词技术和模型推理能力的依赖,从而提升大型语言模型(LLM)应用在复杂任务中的性能,提高系统的可解释性、稳定性和容错性。
主要特点:
-
类型多样化: Dify 工作流分为两种类型:
-
Chatflow: 面向对话类场景,包括客户服务、语义搜索,以及其他需要在构建响应时进行多步逻辑的对话式应用程序。
-
Workflow: 面向自动化和批处理场景,适用于高质量翻译、数据分析、内容生成、电子邮件自动化等应用程序。 丰富的节点支持: 为解决自动化和批处理场景中的复杂业务逻辑,工作流提供了丰富的逻辑节点,如代码节点、IF/ELSE 节点、模板转换、迭代节点等。此外,还提供定时和事件触发的能力,方便构建自动化流程。 WELCOME TO DIFY | DIFY
应用案例:
-
内容生成: 通过 Dify 工作流,用户可以创建博客文章、产品描述或营销材料。只需提供一个大纲或主题,LLM 将利用其广泛的知识库生成引人入胜、信息丰富且结构良好的内容。 WELCOME TO DIFY | DIFY
-
数据分析和报告: Dify 工作流可用于分析大型知识库并生成报告或摘要。通过提供相关信息给 LLM,它可以识别趋势、模式和洞察力,将原始数据转化为可操作的智能。 WELCOME TO DIFY | DIFY
使用体验:
用户分享了一些实用的 Dify 工作流,涵盖了文章仿写、小红书内容生成、教程编写等多个方面,展示了 Dify 工作流在实际应用中的广泛性和实用性。
最后:
Dify 工作流通过将复杂任务模块化,提供了灵活且高效的解决方案,增强了 LLM 应用的性能和可靠性,适用于多种业务场景。
在使用过程中欢迎私信交流~~~~ 🚀🚀🚀
(文:PyTorch研习社)