首页 游戏 软件 资讯 排行榜 专题
首页
AI
腾讯AI Lab推出Locas技术实现AI长文本记忆突破

腾讯AI Lab推出Locas技术实现AI长文本记忆突破

热心网友
67
转载
2026-05-12

近日,一项由腾讯AI Lab团队发表于顶级学术平台arXiv(论文编号:arXiv:2602.05085v1)的研究引发了广泛关注。这项名为Locas的突破性技术,直指当前大语言模型(LLM)在处理超长上下文时面临的核心瓶颈:如何实现持续、稳定的信息记忆,同时有效防止在学习新知识时对原有能力的覆盖与遗忘。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

腾讯AI Lab发布Locas:让AI像人一样

人类在阅读长篇著作时,能够自然地提炼主线、关联人物,并调用背景知识进行理解。然而,现有的大模型在面对长文本时,往往受限于固定的上下文窗口,表现出“记忆短暂”或“学新忘旧”的困境。Locas技术的目标,正是为AI构建一套高效的“外部记忆系统”,使其能够像人类一样,在长程交互中积累、存储并灵活调用关键信息,从而从根本上提升长文本理解与生成能力。

一、AI长文本处理的挑战:为何记忆如此困难

要理解Locas的价值,首先需厘清大模型处理长文本的固有局限。主流Transformer架构的注意力机制虽然强大,但其计算复杂度与序列长度呈平方关系,导致上下文窗口无法无限扩展。当输入文本超出窗口限制时,模型便无法访问序列前部的信息。

这好比一位图书管理员,其工作台面积固定。当新书源源不断送来时,最早的书不得不被移走以腾出空间。书虽仍在库中,却已不在其即时可及的“工作区”。现有解决方案主要分为两类:一是基于检索增强生成(RAG)的“外部查询”模式,如同开卷考试,虽能获取信息但无法内化;二是参数微调方法,如同考前突击,虽能快速适应新任务,却极易导致对原有知识的“灾难性遗忘”。

腾讯AI Lab团队洞察到,问题的关键或许不在于无限扩大“工作台”,而在于为AI配备一个“智能外接笔记本”。这个笔记本需要足够高效,能以极低的成本记录精华,并且其运作不能干扰AI原有的核心能力。

二、Locas的核心原理:将前馈网络转化为动态记忆库

Locas技术的创新起点,在于对模型内部前馈网络(FFN)功能的重新解读。研究发现,FFN层实质上扮演着一个庞大的“键值对”联想记忆系统的角色。

这类似于人脑的联想机制:当接收到“苹果”这一概念时,与之相关的“红色”、“水果”、“甜味”等属性会被同时激活。Locas的核心思想是,在模型旁侧挂载一个轻量级的、可动态更新的记忆模块。该模块并非从零开始学习,而是通过“智能初始化”策略,基于模型在处理当前上下文时最活跃的神经元来创建记忆条目,从而高效捕获关键信息。

团队设计了两种实现方案:Locas-MLP和Locas-GLU。Locas-MLP采用经典的两层神经网络结构,具备严格的理论最优性保证。Locas-GLU则采用了与当前先进模型一致的门控线性单元(GLU)结构,具备更强的灵活性和兼容性,能无缝集成到现有架构中。其精妙之处在于,这个记忆模块是“侧挂”的,不修改主模型任何原有参数,从而完美避免了灾难性遗忘。

三、智能初始化:教会AI如何高效做笔记

Locas效能卓越的关键在于其“智能初始化”机制。它并非让记忆模块从随机状态开始学习,而是引导其从最相关的起点开始。

对于Locas-MLP,其初始化基于“激活模式与梯度信息”。系统会分析模型在处理特定内容时,哪些神经元的激活最强(关注点),以及这些激活对最终输出的影响有多大(重要性),并将这些信息直接编码为初始记忆。这种方法在数学上被证明是当前步骤下的最优选择。

对于Locas-GLU,则采用“激活引导的参数克隆”策略。系统首先让主模型处理待记忆内容,识别出其中激活度最高的FFN神经元子集。随后,将这些关键神经元对应的参数“克隆”到侧挂的记忆模块中作为初始化。这相当于让记忆模块直接继承模型认为最重要的“知识模板”。为确保初期不干扰主模型,记忆模块的输出权重被初始化为零,随着学习逐步发挥作用。

四、记忆的管理与维护:平衡存储与效率

一个实用的记忆系统必须能管理其容量并防止干扰。Locas对此提供了精巧的设计。

随着记忆条目增多,系统需进行压缩以避免臃肿。团队为Locas-MLP探索了“非线性SVD”压缩算法,其原理类似于对知识进行降维与去冗余,保留核心信息。然而实验发现,在实际的混合精度训练环境下,简单的反向传播微调在性能上与复杂算法相当,且计算效率更高。

在防止干扰方面,Locas的侧挂架构是根本保障。主模型参数全程冻结,记忆模块的输出通过一个可学习的缩放因子叠加到主输出上。此外,团队引入了“权重范数裁剪”等技术,严格限制记忆模块每一步更新的幅度,确保其扮演“辅助顾问”而非“决策主导”的角色,从而维持了系统的稳定性。

五、性能验证:在长文本任务中的卓越表现

研究团队通过长文档建模和长对话问答两大任务验证了Locas的有效性。

在基于PG-19数据集的长篇小说续写任务中,Locas-GLU在处理20万token的文本时,将预测困惑度从基准方法的25.22降低至25.00,同时仅使用了后者17%的额外参数和38%的计算开销,实现了显著的效率提升。

在更具挑战性的LoCoMo长对话记忆基准测试中,Locas优势更明显。在需要直接回忆事实的单跳问答上,其F1分数达到41.6%,超越基线11.5%。在需要综合推理的多跳问答和时间推理任务上,Locas也分别取得了25.2%和领先基线17%的优异表现,证明其能有效维护信息的逻辑与时序关联。

最关键的是“灾难性遗忘”测试:在让模型记忆大量新内容后,评估其原有通用知识(MMLU基准)的保留程度。Locas-GLU仅导致0.2%的性能下降,远低于对比方法(TempLoRA)的0.6%至1.2%的下降,充分证明了其保护原有知识的能力。

六、高效之源:Locas背后的关键技术设计

Locas能以极小代价换取巨大提升,归功于几个核心设计。

首先,“激活引导选择”策略被证明极其有效。选择最活跃的神经元进行初始化,其效果显著优于随机选择,这验证了“最活跃神经元承载关键信息”的假设。该策略在数学上等效于在模型的高维非线性激活空间中执行“主成分分析”,精准抓住了信息的核心方向。

其次,智能初始化大幅降低了对记忆维度的需求。实验表明,仅用16维的Locas记忆,其性能便可媲美需要64维的传统方法,参数效率提升26倍。这说明“精准初始化”远比“盲目扩容”更重要。

最后,侧挂架构与自适应缩放机制确保了系统的鲁棒性。记忆模块的影响力被动态调控,使其贡献始终处于合理范围,既有效补充了信息,又不会喧宾夺主。

七、理论基石:支撑Locas的数学原理

Locas并非仅有工程技巧,更有坚实的理论支撑。

对于Locas-MLP,研究团队从数学上证明了其初始化策略在每一步都是最优的,能够最小化当前上下文下的预测误差。对于Locas-GLU,团队则从几何视角进行了解释:参数克隆策略实际上是在模型的高维参数空间中,定位并复用了与当前任务最相关的子空间方向。

从信息论角度看,智能初始化相当于利用了模型已有知识作为“先验信息”,极大地提升了学习效率。有趣的是,这种复用已有神经通路形成新记忆的模式,与神经科学中人类大脑的记忆机制有异曲同工之妙。

八、当前局限与未来展望

尽管前景广阔,Locas目前仍存在一些局限与改进空间。

首先,理论优美的非线性SVD压缩算法在实际部署中面临与混合精度训练兼容性差、计算开销大的挑战,简单的微调方法目前更具实用性。其次,记忆模块的容量扩展性、对矛盾信息的处理能力以及记忆内容的可解释性,都是未来需要深入研究的课题。此外,在极端资源受限的场景下,如何进一步降低其微小的额外开销也值得探索。

九、应用前景:Locas将如何改变AI交互

Locas技术为多个AI应用领域带来了革命性潜力。

在智能助手领域,它能实现真正的个性化长期记忆,让助手深刻理解用户的历史偏好与对话上下文。在教育领域,AI导师可以持续跟踪学生的学习轨迹,提供真正个性化的辅导方案。在内容创作中,AI能够保持长篇故事角色、设定的一致性。在客户服务场景,客服AI可以记忆完整的服务历史,提供无缝衔接的体验。

更重要的是,Locas为实现AI的“持续学习”或“终身学习”奠定了关键技术基础,使得AI系统能够在不断吸收新知识的同时,稳固保留原有技能,向更通用、更智能的方向迈进。

十、总结:迈向拥有持久记忆的AI新时代

总而言之,腾讯AI Lab提出的Locas技术,为解决大模型的长文本记忆与持续学习难题提供了一个高效、优雅且实用的方案。它标志着AI研究从一味追求模型规模扩展,向更注重架构创新与算法效率的重要转变。

这项研究最引人注目的成就在于其“四两拨千斤”的极致效率:通过增加极少参数(约0.02%),便显著提升了模型的长上下文处理能力,同时从根本上规避了灾难性遗忘。这不仅具有重要的学术价值,也大幅降低了相关技术在实际场景中部署的成本门槛。

对于普通用户而言,Locas这类技术的成熟意味着更智能、更贴心的AI服务即将成为现实。我们有望迎来真正“善解人意”、能够建立长期记忆与默契的AI伙伴。尽管Locas仍需进一步完善,但它无疑为AI记忆增强研究开辟了一条充满希望的道路,其后续发展值得持续关注。

对技术细节感兴趣的读者,可通过论文编号arXiv:2602.05085v1查阅完整报告,其中包含了更详尽的数学推导与实验数据。

Q&A

Q1:Locas技术是什么,它解决了什么问题?

A: Locas是腾讯AI Lab提出的一种高效的AI记忆增强技术。它主要解决大语言模型在处理超长文本时存在的两大难题:一是无法长期记住上下文中的关键信息(短时记忆限制);二是在学习新任务或知识时,容易覆盖或遗忘之前已掌握的能力(灾难性遗忘)。该技术通过为模型侧挂一个轻量的动态记忆模块来实现持续学习。

Q2:Locas技术相比传统方法有什么优势?

A: Locas拥有三大核心优势:1. 高效性:仅需增加约0.02%的参数量,即可大幅提升长文本处理性能,计算和参数开销远低于传统方法(如TempLoRA)。2. 兼容性:侧挂式设计无需修改主模型参数,可轻松集成到现有架构中。3. 稳定性:能有效保护模型原有知识,基本避免灾难性遗忘,在多项测试中性能下降微乎其微。

Q3:Locas技术什么时候能在日常应用中使用?

A: 目前Locas是一项前沿学术研究成果,从实验室研究到大规模商业应用通常需要经过进一步的工程优化、稳定性测试和产品化集成。然而,它所展示的技术路径为下一代智能助手、个性化教育工具、长文档处理AI等应用奠定了坚实基础。预计未来1-3年内,我们有望在各类需要长期记忆能力的AI产品中看到类似技术的落地。

来源:https://www.techwalker.com/2026/0212/3179166.shtml
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

腾讯AI Lab推出Locas技术实现AI长文本记忆突破
AI
腾讯AI Lab推出Locas技术实现AI长文本记忆突破

近日,一项由腾讯AI Lab团队发表于顶级学术平台arXiv(论文编号:arXiv:2602 05085v1)的研究引发了广泛关注。这项名为Locas的突破性技术,直指当前大语言模型(LLM)在处理超长上下文时面临的核心瓶颈:如何实现持续、稳定的信息记忆,同时有效防止在学习新知识时对原有能力的覆盖与

热心网友
05.12
腾讯官宣:成为OpenClaw全球赞助商背后的战略洞察
科技数码
腾讯官宣:成为OpenClaw全球赞助商背后的战略洞察

3月15日消息,OpenClaw创始人彼得·斯坦伯格(Peter Steinberger)转发腾讯成为OpenClaw赞助商的博文,并表示“love a good redemption arc”。斯

热心网友
03.15
腾讯AI转折点:OpenClaw如何引发3500亿市值暴涨与内部热议
科技数码
腾讯AI转折点:OpenClaw如何引发3500亿市值暴涨与内部热议

微信依然是争夺 AI 助手超级入口的核心阵地。作者|连冉编辑|郑玄今天凌晨 2 点,腾讯董事会主席兼首席执行官马化腾在朋友圈转发了腾讯推出全系「龙虾」产品矩阵的公众号文章,并配文「自研龙虾、本地虾、

热心网友
03.11
腾讯AI战略布局:打赢关键战役的三大核心要素
科技数码
腾讯AI战略布局:打赢关键战役的三大核心要素

撰文| 郝 鑫编辑| 吴先之“我们整个动作其实是慢了,一直到2024年底,元宝和混元大模型才转到CSIG,开始正式做。”腾讯是第二家承认在AI上“动作慢了”的大厂。上一个这么公开表述的还是字节,

热心网友
02.14
阿里春节重注AI:贴身肉搏战背后的战略深意
科技数码
阿里春节重注AI:贴身肉搏战背后的战略深意

春节档AI大战骤然升温。2月2日,阿里旗下AI助手 "千问 "宣布投入30亿元启动 "春节请客计划 ",计划将于2月6日正式上线。春节期间,用户通过千问App可以免单吃喝玩乐。2月1日,腾讯 "元宝 "借10亿

热心网友
02.03

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

Codex实现商业闭环自动盈利模式解析与实战经验分享
AI
Codex实现商业闭环自动盈利模式解析与实战经验分享

开发者Chris通过Codex服务,仅用一句指令便自主完成开源赏金任务,盈利23 68美元,覆盖订阅成本。此事展示AI自主执行商业闭环的潜力,也引发成本与安全争议。AI正从工具向主动创收者转变。

热心网友
05.12
崩坏星穹铁道火花技能详解与效果解析
游戏资讯
崩坏星穹铁道火花技能详解与效果解析

在《崩坏:星穹铁道》的众多角色中,火花以其独特的技能机制,为战斗策略带来了丰富的变数与操作乐趣。她并非单纯的数值输出角色,而是一位集机动性、爆发伤害与战术价值于一体的近战专家。深入理解其技能联动,是充分发挥其战场潜力的关键。 普通攻击 - 迅刃连斩 火花的普通攻击“迅刃连斩”,是一套衔接流畅的近战连

热心网友
05.12
迷你世界智能芯片升级方法详解
游戏资讯
迷你世界智能芯片升级方法详解

想在《迷你世界》中解锁智能芯片的全部潜力?掌握升级方法是关键一步。通过升级,芯片不仅能获得更强大的功能,还能显著提升自动化与创造体验。本指南将为您提供一套清晰、高效的升级方案,助您快速掌握核心技巧。 准备材料:精准收集 成功的升级始于充分的准备。您需要提前备齐以下核心资源:精铁锭、蓝色电能线、硅石以

热心网友
05.12
斗罗大陆猎魂世界寻宝活动玩法全攻略
游戏攻略
斗罗大陆猎魂世界寻宝活动玩法全攻略

《斗罗大陆:猎魂世界》于5月11日至18日限时开启“寻宝之旅”活动。玩家通过任务或礼包获取道具,掷点前进即可领取限定觉醒券、钻石等奖励。完成整圈可得固定资源,累计积分可兑换更多奖励;第16圈起奖励品质提升,整体效率优化。活动门槛低、回报高,无需强制消费,适合各类玩家参与。

热心网友
05.12
燕云十六声龙骧御六合技能详解与角色全解析
游戏攻略
燕云十六声龙骧御六合技能详解与角色全解析

全新秘境“龙骧御六合”开放高难度挑战,玩家需在悬浮石枷上协同维持平衡,应对雷霆与坠石冲击,移动石板可削弱伤害。后续Boss“独夫”登场时,部分队员需切入其内心,其余成员按提示执行阵列动作,全程考验队伍反应与协作能力。

热心网友
05.12