拼匍弦 发表于 4 天前

"Memory in the Age of AI Agents: A Survey" 论文笔记

背景

智能体记忆如今极其碎片化,研究人员们发现,当大家谈论智能体记忆时,所指的可能完全是不同的事物:有人专注于存储用户对话历史,有人研究如何从失败中提炼策略,还有人试图将知识直接烙进模型参数里。同时,大量新兴术语(如陈述性记忆、情景记忆、参数记忆等)的涌现,进一步模糊了概念的清晰度
因此,这篇综述直指当前领域的核心痛点:我们迫切需要一套能够统一定义、厘清边界、并指引未来方向的系统性框架。论文旨在回答几个根本性问题:

[*]智能体记忆究竟是什么?
[*]智能体记忆有哪些不同的实现形态?
[*]智能体记忆被设计来达成何种目的?
[*]智能体记忆是如何随着时间动态发展、演化和使用的?
针对这些问题,论文界定了智能体记忆和几个易混淆概念的边界与练习,并在形式、功能、动态三个维度上提出了统一的分类体系,这项研究系统性的梳理了已有的智能体工作和评测基准,为后续研究提供了扎实的理论基础
什么是智能体记忆

智能体被形式化地定义为一个在特定环境中感知、决策并行动的系统。这个环境可以是一个网站浏览器、一个代码仓库,甚至是一个多人在线的虚拟世界。智能体通过传感器(通常是 LLM 对文本或图像的理解能力)获取 "观察",然后基于这些观察和自己的 "记忆" 来选择一个 "动作"


[*]智能体记忆和 LLM 记忆的关系:智能体记忆在概念让包含了早期的 LLM 记忆(如何在多轮互动中维持状态与身份)
[*]智能体记忆与 RAG 的关系:智能体 RAG 通常操作的是一个为特定任务准备的外部数据库,而智能体记忆维护的是一个属于智能体自身、持续累积、跨越任务的内部记忆基底(随着环境交互而动态增长、演化的)
[*]智能体记忆与上下文工程的关系:二者的重合程度较高;上下文工程关注的是如何把 "信息" 喂给大模型,而智能体记忆更关注智能体应该知道什么、如何成长。一个是接口,一个是内在
智能体记忆不是管理在推理时向模型呈现信息的方式,而是控制智能体知道什么、经历过什么以及这些元素如何随着时间的推移而演变。这包括将重复的交互整合为知识,从过去的成功和失败中抽象出程序性知识,以及在任务和场景之间保持一致的身份
智能体记忆的实现形态


(1) Token-level Memory
这是最直观常见的记忆形式,最大的优点是透明、可解释、易编辑。我们可以随时查看智能体记住了什么,修改错误的信息,或者删除过时的内容。例如早期著名的 MemGPT 框架,就模仿计算机操作系统的内存管理,将对话历史和外部的文档知识作为 "虚拟内存" 进行分页管理,实现了超越模型原生上下文长度的 "记忆" 能力
根据组织这些 token 的结构复杂度,token-level memory 又可以分为三类:

[*]扁平记忆(1D):像日记本一样按时间顺序或简单堆叠记录,易于增删,但查找和关联信息效率较低
[*]平面记忆(2D):引入了结构,如用树来组织对话的层次,或用图来连接不同的知识点(如 A-MEM 系统将记忆组织成互相关联的卡片网络)。这提升了信息的组织性和关联推理能力
[*]分层记忆(3D):在平面结构上叠加了抽象的层级,形成多层级结构。例如 GraphRAG 通过社区检测构建多层索引,或 G-Memory 为多智能体系统设计的三层图(交互、查询、洞察层)。这种结构能同时管理细节与大局,支持从宏观战略到微观执行的垂直信息检索
(2) Parametric Memory
将记忆直接写入模型的权重参数之中,它不像外部笔记那样可以被随时翻阅,而是像人通过反复练习学会骑自行车一样,将技能或知识转化为一种内隐的、本能式的反应模式
这种记忆又分为两种路径:一种是直接调整大模型本身的参数(内部参数记忆),例如通过微调让模型记住某个用户的特定偏好;另一种是在模型之外附加轻量级的 "适配器" 模块(如 LoRA),让新记忆存放在这些额外参数中,而不改动原始模型,实现模块化的记忆更新(外部参数记忆)。
参数记忆的优势在于推理速度快、无需外部检索,知识被直接激活。但其缺点也很明显:更新成本高(需要训练),且容易导致 "灾难性遗忘"
(3) Latent Memory
将记忆存储在模型推理过程中的中间状态里,例如 Transformer 模型中的 KV Cache 的形式,论文将此种方法分为三类:

[*]生成式:让模型动态生成一些特殊的 "记忆令牌" 或压缩向量,来代表当前重要的信息,供后续步骤使用
[*]重用式:直接保存和复用之前计算产生的中间状态,避免重复计算,是实现高效长上下文处理的关键技术之一
[*]转换式:对已有的中间状态进行压缩、剪枝或聚合,在保留核心信息的同时减少存储开销
(4) 总结

这三种形态的记忆并非彼此排斥,而是构成了一个连续的谱系。令牌级记忆提供了可审计、可扩展的 "外脑";参数记忆追求极致的性能与响应速度,塑造智能体的 "内在本性";而潜在记忆则是保障实时交互流畅度的 "高速缓存"
为什么需要智能体记忆

在最高层次上,智能体记忆主要分为长期记忆和短期记忆,这种高级时间分割进一步分解成是三个主要功能

(1) 事实记忆
事实记忆是指代理存储和检索有关过去事件、用户特定信息和外部环境状态的明确的声明性事实的能力
通常根据两个主要组成部分进行分析:情景记忆和语义记忆。情景记忆存储与特定时间和空间背景相关的个人经历的事件;语义记忆保留一般的事实知识、概念和词义
(2) 经验记忆
经验记忆负责将智能体在一次次任务执行中获得的 “亲身体验",转化为可复用、可推广的策略与技能。通过维护结构化经验存储库,智能体实现了非参数适应路径,并避免了频繁参数更新的高昂成本。论文按照抽象程度将经验记忆归纳为四个层次:

[*]案例记忆:最原始的形式,直接存储过去任务执行的完整 "轨迹录像"(包括操作、观察和结果)。当遇到相似任务时,直接进行类比和复用
[*]策略记忆:不满足于具体案例,而是从中提炼出通用的方法论。例如,Buffer of Thoughts 维护一个 "思维模板" 库,遇到新问题时检索并实例化合适的推理框架;AWM 则从成功的网页操作轨迹中抽象出可复用的 "工作流",这相当于为智能体装备了一个不断丰富的“策略工具箱”。
[*]技能记忆:将经验进一步固化为可即插即用的可执行能力。最典型的形式是工具使用技能,如将调用某个 API 的成功方式封装成一个函数,从 "知道怎么做" 进化成 "直接做"
[*]混合记忆:先进的智能体架构越来越多的采用混合设计,集成多种形式的经验记忆。这些系统动态地选择最合适的记忆格式,确保检索精度和跨上下文的广泛概括
(3) 工作记忆
这是最贴近我们当下思考过程的记忆功能,充当智能体在执行单个复杂任务时的 "思维便签" 或 "内存工作区"。它的核心挑战在于:如何在有限的信息处理容量(即模型上下文窗口)内,动态地管理、筛选和压缩海量的中间信息,以维持专注、高效的推理链条。工作记忆机制主要分为两种类型:

[*]单轮工作记忆侧重于输入压缩和抽象。在这种情况下,系统必须在一次前向传递中处理大量即时输入,例如长文档或高维多模式流。目标是动态过滤和重写证据以构造有界计算暂存器,从而最大化每个令牌的有效信息负载
[*]多轮工作记忆解决临时状态维护问题。在顺序交互中,面临的挑战是防止历史积累压倒注意力机制,从而在长程任务中始终保持思维画板的清晰与高效
(4) 总结
这三种功能构成了记忆系统的完整闭环,一个强大的智能体,其记忆系统必然是这三种功能有机结合的混合体。例如,它在与用户对话(依赖事实记忆)时,可能需要规划一个复杂操作(调用工作记忆),而其规划能力本身又得益于以往解决类似问题所积累的策略记忆
智能体记忆的生命周期


与模型参数或固定数据库中静态编码的知识不同,代理内存系统可以动态构建和更新其内存存储,并根据不同的查询执行定制的检索,这种适应能力对于使智能体能够自我进化和终身学习至关重要。论文通过将其分解为三个基本过程来检查完整的记忆生命周期
(1) 记忆形成
作者将记忆形成定义为将原始上下文(例如对话或图像)编码为紧凑知识的过程,记忆形成的必要性源于处理冗长、嘈杂和高度冗余的原始上下文所固有的缩放限制
基于信息压缩的粒度和编码的逻辑,我们将记忆形成过程分为五种不同的类型:

[*]语义摘要:将长篇对话或文档浓缩为保持核心语义的简短摘要。例如 Mem0 框架,会持续将对话历史合并为更紧凑的总结
[*]知识蒸馏:更高级的提取,专注于从交互轨迹中 "蒸馏" 出具体的知识。例如,从成功解决数学题的过程中提炼出关键解题步骤(经验),或从对话中抽取出用户明确的偏好声明(事实)
[*]结构化构建:构建机器更易理解和推理的结构化表示,如知识图谱或树状索引。像 GraphRAG 这样的工作,会从文档中自动提取实体和关系,构建多层次的图结构,极大提升了复杂关系查询的效率
[*]潜在表示:完全 "机器友好" 的编码方式,将信息转化为模型内部的连续向量或特殊的记忆令牌。这种方式虽然人类无法直接读懂,但计算效率高,易于与模型本身的推理过程深度融合
[*]参数内部化:通过模型微调等技术,将知识直接 "写入" 模型的权重参数中,使之成为模型的“本能反应”。但这种方式成本高且不易修改
(2) 记忆演化
下一个重要步骤是将新提取的记忆与现有的记忆存储库集成,从而实现记忆系统的动态演化。新形成的记忆并不会被简单地堆叠进仓库,演化过程负责维护记忆库的质量、一致性与效率,它包含了三个核心机制:

[*]记忆巩固:将相关的新旧记忆进行融合与抽象,形成更高层次的 insight 或者 mode。例如将多次成功的 "登录网站-搜索商品-加入购物车" 具体案例,归纳为一条通用的 "在线购物工作流"
[*]记忆更新:当新获取的事实与旧记忆冲突时(比如用户更改了地址),系统需要安全地修正知识库。先进的方法如 Zep,采用 "软删除"(标记过时而非物理删除)来保持历史完整性;而 Mem-α 则尝试用强化学习让智能体自己学会何时、如何更新记忆
[*]记忆遗忘:主动 "忘记" 过时、冗余或低价值的信息,以释放认知负载和存储空间。遗忘策略可以是基于时间(淘汰最旧的)、基于频率(淘汰最少使用的),或基于重要性(由模型评估价值后淘汰)
(3) 记忆检索
当智能体面对一个新情境需要决策时,检索过程便被触发。其目标是从庞大的记忆库中,精准、高效地召回最相关的记忆片段来辅助推理。这个过程主要分为四个步骤:

[*]时机与意图判断:智能体首先需要自主判断 "现在是否需要查询记忆 以及 该查哪个记忆库" 这已从早期的固定查询,发展到由模型自主决策。例如 MemGen 框架引入了 "记忆触发器",能从模型的潜在状态中学习何时该发起检索
[*]查询构造:用户的原始问题可能不适合直接搜索,系统会对查询进行改写或分解,例如将复杂问题拆成子问题,或生成一个假设性文档来更好地匹配记忆库中的语义
[*]执行检索:技术手段多样,包括传统的关键词匹配(BM25)、主流的语义向量相似度搜索,以及针对图结构的图谱遍历检索。像 HippoRAG 这样的系统,利用知识图谱上的随机游走算法,能实现深度的多跳关系推理
[*]后处理:检索出的结果可能太多、太杂或相互矛盾。因此需要重排序、过滤和聚合,确保最终注入模型上下文的记忆是精炼、相干且最有价值的
(4) 总结
正是这个持续运转的、自指的生命周期,使得智能体的记忆系统能够不断学习、适应和成长,从静态的数据存储,进化为一个真正具有认知演化能力的核心组件
未来方向

论文指出当前的研究只是打开了记忆领域的大门,未来的探索仍然充满机遇与挑战

[*]自动化记忆设计:目前记忆系统的架构(如用什么形态、如何组织)仍高度依赖人类专家的精心设计。未来,我们能否让智能体自主地发现并优化其自身的记忆结构?就像大脑在发育和学习中不断重塑神经连接一样,让智能体根据任务需求,自动配置最有效的记忆硬件与管理策略
[*]记忆与强化学习的深度融合:强化学习是智能体通过试错与环境互动学习最优策略的范本。将其与记忆系统深度结合,意味着智能体不仅能从当前的成功或失败中学习(奖励信号),还能从庞大的记忆库中高效地提取历史经验、进行模拟推理、并规划长远策略,实现更快速、安全的学习
[*]多模态记忆:现实世界的信息是多模态的,文本、图像、声音、物理交互。未来的智能体记忆需要成为一个融合多感官信息的统一表示,这要求记忆系统具备强大的跨模态对齐与联合检索能力
[*]多智能体共享记忆:当多个智能体协同完成一个复杂项目(如开发软件、运营公司)时,它们之间如何高效、一致地共享与同步记忆?构建安全、可控、高效的群体共享记忆空间,将成为实现真正社会性AI协作的关键,这涉及记忆的权限管理、冲突消解、共识形成等一系列新问题
[*]记忆的可信与安全:一个拥有长期、深刻记忆的智能体,也带来了新的风险。如何确保其记忆的准确性、公平性,并防止隐私泄露或被恶意注入错误记忆。设计可解释、可审计的记忆操作,建立记忆系统的可信保障机制,是其走向大规模实际应用的必经之路

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: "Memory in the Age of AI Agents: A Survey" 论文笔记