LangChain重磅更新:AI自主决定何时压缩记忆
对于正在构建长时间运行或交互式Agent的开发者而言,这个功能值得一试。它本身不算庞大,但它所指向的方向——让模型更主动地管理工作记忆——可能会成为下一代Agent框架的标准配置。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
AI Agent在执行长任务时有一个绕不开的问题:上下文窗口是有限的。
当对话历史、工具调用结果、文件内容不断堆积,模型的注意力会被稀释,关键指令被淹没,决策质量随之下滑——这种现象被称为“上下文腐烂”(context rot)。
LangChain的Deep Agents SDK此前已经实现了自动压缩:当上下文使用量达到模型窗口的85%时,系统会自动触发摘要化,将旧消息替换为结构化摘要。
这套机制能用,但不够聪明——它不知道现在是不是压缩的好时机。
最新发布的版本做了一件有意思的事:把“何时压缩”这个决定权交给了模型本身。
压缩上下文这件事,有好时机,也有坏时机。
如果模型正在进行一次复杂的代码重构,中途突然压缩,很可能丢失关键的中间状态,导致后续步骤出错。
但如果一个阶段性任务刚刚完成,用户准备开启新话题,这时候压缩就非常合适——旧的上下文已经没什么用了,清掉反而能让模型更专注。
很多交互式编程工具(比如Claude Code)提供了/compact这样的手动命令,让用户自己决定什么时候清理上下文。但这要求用户理解上下文窗口的概念,并且在合适的时机主动操作——对大多数人来说这个门槛并不低。
Deep Agents的新方案是:把这个工具暴露给模型,让它自己判断。
LangChain在系统提示中为模型提供了判断指引,总结下来大致有这几类场景:
• 任务边界:用户明确表示要切换到新任务,或者当前交付物已完成并得到确认
• 信息提取完毕:模型从大量上下文中得出了结论、摘要或关键事实,原始内容已不再需要
• 即将消耗大量新内容:生成长文档,或者要读入大量新文件
• 进入复杂多步流程前:大型重构、迁移、多文件编辑等任务开始之前,或者计划已制定、即将进入执行阶段
• 旧上下文已被新决策覆盖:新需求推翻了之前的方向,或者存在大量无效的探索路径需要清理
这些场景的共同特点是:历史上下文的边际价值已经很低,而接下来的任务需要更清晰的工作记忆。
这个工具的实现复用了Deep Agents已有的摘要化中间件逻辑:保留最近10%的可用上下文作为近期消息,对更早的内容生成结构化摘要。
触发压缩的工具调用本身及其响应,也会被保留在近期上下文中。

值得一提的是,Deep Agents会把完整的对话历史保存在虚拟文件系统中,即便压缩之后,原始内容依然可以通过文件系统检索找回。这在一定程度上降低了误触发压缩的风险。
在SDK中,这个功能作为独立中间件提供,需要手动加入到create_deep_agent的中间件列表:
from deepagents import create_deep_agent
from deepagents.backends import StateBackend
from deepagents.middleware.summarization import (
create_summarization_tool_middleware,
)
backend = StateBackend()
model = "openai:gpt-5.4"
agent = create_deep_agent(
model=model,
middleware=[
create_summarization_tool_middleware(model, backend),
],
)
在Deep Agents CLI中,这个功能默认开启。用户也可以继续使用/compact命令手动触发。
LangChain在调优时刻意让这个功能偏保守。
他们用三种方式进行了测试:
基于自家LangSmith追踪记录构建的评估集(注入后续prompt,判断是否应该触发压缩)Terminal-bench-2基准测试(未观察到任何自主压缩行为)团队内部在Deep Agents CLI上的日常编码任务。
结果是:模型触发压缩的频率不高,但每次触发都发生在比较合理的节点,而且确实改善了后续的工作流。
这背后有一个更大的设计哲学:Agent框架应该尽量“让开”,把更多控制权交给底层推理模型本身,而不是靠手工调参来打补丁。这是“苦涩的教训”(bitter lesson)在Agent设计上的一次具体实践——与其精心设计触发规则,不如让模型自己学会判断。
对于正在构建长时间运行或交互式Agent的开发者来说,这个功能值得一试。它本身不算大,但它所指向的方向——让模型更主动地管理工作记忆——可能会成为下一代Agent框架的标准。
相关攻略
对于正在构建长时运行或交互式 Agent 的开发者来说,这个功能值得一试。它本身不算大,但它所指向的方向——让模型更主动地管理自己的工作记忆——可能会成为下一代 Agent 框架的标配。 AI A
Deep Agents SDK 的完整代码已在 GitHub 开源。随着 AI Agent 承担的任务越来越复杂,上下文管理将成为决定 Agent 能力边界的关键因素。这套方案提供了一个很好的起点。
LangChain 表示这只是开始,后续会持续扩展模板库。如果你构建了自己满意的 Agent——无论是用于销售外联、生产监控还是研究分析——可以在社区 Slack 的 agent-buil
如果面试官问你这个问题,你可以这样总结:LangChain功能繁多、反应迅速,是探索 AI 前沿的最佳工具,而 Spring AI 更像是一套工业级的生产线。对于企业而言,我们不仅需要调用大模型,更
无论是在企业内部搭建客服代理,还是构建工程效率工具,文件系统方式都为“可控上下文”提供了工程化抓手。只要遵循“写入-检索-复用”的闭环,代理就能在大规模信息中保持稳定表现。 LangChain 团队
热门专题
热门推荐
要提升HDFS集群的稳定性,这些配置与优化思路值得关注 想让你的Hadoop分布式文件系统(HDFS)集群运行得更稳定、更可靠吗?这既是一项系统工程,也有一套清晰的优化路径——关键在于,你是否在硬件选型、参数配置、运维管理等核心层面都进行了系统性的规划与调优。下面这张图,可以帮助你快速建立起一个关于
HDFS副本策略调整指南 一 核心概念与层级 要玩转HDFS的副本策略,得先理清几个核心概念。它们像齿轮一样层层咬合,共同决定了数据最终落在哪里。 副本因子:这个最好理解,就是一个数据块要存几份。它直接决定了数据的可靠性和存储开销,默认值是3,算是可靠性与成本之间的经典平衡点。 副本放置策略:这是N
HDFS:一个为容错而生的分布式文件系统 在分布式存储领域,数据的安全性与可靠性是系统设计的核心。HDFS(Hadoop分布式文件系统)之所以能成为大数据生态的基石,关键在于其设计了一套多层次、自动化的容错机制。这套机制确保了在硬件故障、网络异常等常见问题发生时,数据依然保持完整且服务持续可用。本文
在HDFS中设置合理权限:一份实战指南 在Hadoop分布式文件系统(HDFS)中,权限管理绝非小事。它直接关系到数据的安全底线和系统的稳定运行。那么,如何为HDFS中的文件和目录设置一套既安全又实用的权限规则呢?下面这份指南,或许能给你带来清晰的思路。 1 基本概念 在动手之前,先得理清几个核心
在Hadoop分布式文件系统(HDFS)中实现数据压缩 处理海量数据时,存储成本与传输效率是两大核心挑战。HDFS提供了多种数据压缩方案,能够有效降低存储空间占用并提升数据处理性能。本文将详细介绍在HDFS中启用和配置数据压缩的几种实用方法。 1 配置文件设置 最直接且全局生效的方式是通过修改Ha





