这就是AI智能体的记忆机制原理


一般来说,Agent(智能体)的记忆是通过在传递给 LLM 的 Prompt(提示)中提供上下文实现的,使 Agent 能够基于过去的交互或无法立即获取的数据更好地规划和响应。


我们通常将记忆分为四种类型:


1. 情景记忆(Episodic Memory)

这种记忆类型包含 Agent 过去的交互和执行的动作。当 Agent 执行某个操作后,控制 Agent 的应用程序会将该操作存储到某种持久化存储中,以便日后检索。一个典型示例是使用向量数据库(Vector Database)存储交互的语义信息。


2. 语义记忆(Semantic Memory)

这是 Agent 可用的任何外部信息,以及 Agent 自身应具备的知识。可以将其类比为 RAG(Retrieval-Augmented Generation,检索增强生成)应用中的上下文。语义记忆可以是仅供 Agent 内部使用的知识,也可以是某种“锚定上下文”(Grounding Context),用于从互联网上的大规模数据中筛选出更相关的信息,以提高回答的准确性。


3. 程序性记忆(Procedural Memory)

这部分包含系统性的信息,例如 System Prompt 的结构、可用工具、约束机制(Guardrails)等。通常,这些内容存储在 Git 仓库、Prompt 管理库或工具注册表中(Prompt and Tool Registries)。


4. 长期记忆检索

在某些情况下,Agent 应用程序会从长期记忆(Long-Term Memory)中提取信息,并将其存储到本地,以便在当前任务中使用。


5. 短期记忆(Short-Term Memory)

所有从长期记忆中提取或存储在本地的记忆被称为短期记忆或工作记忆(Working Memory)。将这些信息编译成 Prompt 后传递给 LLM,LLM 会基于这些信息生成接下来的行动指令。


通常,我们将 1-3 归类为长期记忆(Long-Term Memory),而 5 归类为短期记忆(Short-Term Memory)


👇 这里有一份关于可能实现细节的可视化解释



至此,剩下的就是如何设计 Agentic Systems 的拓扑结构了。


你对 AI Agent 的记忆机制有什么看法?




https://x.com/Aurimas_Gr/status/1904172795598176494








(文:PyTorch研习社)

欢迎分享

发表评论