不只是RAG变体!xMemory如何重新定义智能体记忆机制
xMemory 首次将“层级解构 + 信息论指导 + 不确定性扩张”整合成一个端到端的记忆检索框架,在智能体长程对话场景中全面超越了传统RAG方法。作者已基于MIT协议开源代码,下一步计划支持多模态记忆与联邦学习隐私版本,无论是个人助理、游戏NPC还是企业知识库都能灵活应用。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
这项由伦敦国王学院团队提出的xMemory技术,采用“先拆后聚”的层级记忆架构,能够将智能体长程对话中的冗余检索信息削减30%的Token量,同时将问答准确率(QA分数)反而提升超过10分。
RAG 在 Agent 场景的“水土不服”症结
传统方法的问题链条通常是这样:
top-k 相似度检索 → 结果常常混杂大量“车轱辘话”需后续剪枝压缩 → 时间线和指代关系被切断,导致多跳推理直接崩溃
图片
xMemory “拆-聚-检”三步走策略
图片
构建四级记忆树
从原始对话起步,完整保留时间戳与指代关系链。在Episode层面,将连续的消息块通过边界检测与提示词自动分段。在Semantic层面,提炼出可复用的事实单元,例如“用户于2025年1月搬家至西雅图”。在Theme层面,抽象出高阶概念,如“职业规划与家庭关系”。
> 每一层级节点都保持为一个“完整证据单元”,不再进行机械式的片段切割。
引入稀疏-语义综合目标函数
f(P) = SparsityScore + SemScore
SparsityScore:确保各主题分布均衡,避免出现“超级候选集”而淹没关键信息。SemScore:促使语义相近的内容聚集,不同主题分离,有效防止“语义孤岛”现象。
支持在线增量更新:新的语义信息会首先贴附于最近的相关主题,一旦触及阈值即自动进行分裂或合并。数据显示44.9%的节点会被动态重组,这意味着记忆结构越用越有条理。
自顶向下的双阶段检索
第一阶段(骨架选择)在主题-语义层进行贪心选择,优先挑出“覆盖广且相关性高”的代表性节点,并天然去重。
第二阶段(不确定性扩张)则非常克制,只将那些能显著降低LLM预测熵的Episode或原始消息纳入最终检索结果,冗余信息一句也不给。
实验效果验证
Token用量减半,性能分数反升
在跨三款主流LLM(包括Qwen3-8B、Llama-3.1-8B、GPT-5-nano)的测试中,趋势高度一致:模型越小,性能提升幅度越大。
深度解析:为什么效果如此显著?
证据密度实验表明,在xMemory的检索块中“同时命中2个以上答案关键词”的比例提升了2倍,而简单剪枝方案会把多重命中的区块削成单一命中,反而使信息更稀疏。
一张图看清差距
图片
对于同一段长对话,传统RAG需要抓取20个信息块才能覆盖答案,而xMemory仅需5块;简单剪枝虽然Token用少了,却可能把关键细节一起剪掉。
三个实战锦囊
首先,别再盲目调高 top-k 值。智能体记忆具有高度自相关性,k 值越大越冗余。正确的做法是先分层,再用贪心算法选取代表节点,效果立竿见影。
其次,剪枝需慎用。对话证据具有链式耦合性,剪“废话”时容易误剪“前提”。用不确定性阈值门控替代硬性剪枝,能在降低Token用量的同时提升准确率。
最后,结构要“活”。用户会随时更正事实,让主题节点可以动态分裂与合并,记忆才不会“僵化”。
让AI记住你,不再只是“金鱼脑”,也不会变成“话痨”——这正是后RAG时代记忆管理的开端。
论文:Beyond RAG for Agent Memory: Retrieval by Decoupling and Aggregation
热门专题
热门推荐
3月30日消息,今晚除了手机之外,vivo还发布了全新的旗舰平板——vivo Pad6 Pro。行业首发13 2英寸4K原彩屏,分辨率3840×2160,347PPI,支持1-144Hz LTPS自
WPS表格中提取括号内容有四种方法:一、单对英文小括号用FIND+MID;二、中英文括号通用需SUBSTITUTE预处理;三、多对括号取最后一对需REVERSESTRING反向查找
3月30日,南京新街口核心商圈,苏豪大厦一楼广场上机器人迎宾起舞,充满科技感。由苏豪资产运营集团与南京新街口金融商务区管理委员会(以下简称“新街口管委会”)共同打造的“数智苏豪”新街口OPC社区揭牌
电 动 知 家消 息,近日,据外媒报道,据福特汽车日前发布的一份文件,该公司首席执行 官吉姆·法利2025年的总薪酬大幅增长了11%,达到约2752万美元(约1 9亿元人民币),这是其自2020年末
白宫里,一台人形机器人缓步走入东厅,与美国“第一夫人”并肩亮相,动作仍带着明显的机械感;仅仅一天后,国会山上,这种“会走路的机器”却被划为潜在安全威胁,写进立法提案。这是上周美国上演的荒诞一幕。两党





