首页 游戏 软件 资讯 排行榜 专题
首页
AI
Meta新研究:AI Agent发展方向将从刷榜转向中训练 注:63个字符,保持核心技术词汇前置,突出研究差异点,避免过度营销词,符合专业文献标题风格

Meta新研究:AI Agent发展方向将从刷榜转向中训练 注:63个字符,保持核心技术词汇前置,突出研究差异点,避免过度营销词,符合专业文献标题风格

热心网友
63
转载
2025-10-14

2025年,AI竞争的焦点正经历本质性变革——从单纯的基准测试比拼转向Agent的实际任务完成能力。xAI与Anthropic等行业巨头发布新品时,都不约而同强调同一关键能力:自主完成复杂长流程任务。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

这折射出一个清晰共识:通用Agent能力将成为AI领域的下一块高地。

但现实远比理想残酷。

除编程领域外,Agent的实际落地应用屈指可数。核心瓶颈之一在于反馈机制的困境:预训练模型要蜕变为强大Agent,必须通过与真实环境交互获得反馈。遗憾的是,现有反馈机制要么效果有限,要么成本高昂。

2025年10月,Meta等机构发表的论文《Agent Learning via Early Experience》提出中间路线——"中训练"范式,试图以经济高效的反馈形式,为Agent发展搭建关键桥梁。(论文链接:https://arxiv.org/abs/2510.08558)

01 反馈机制的双重困境

在探讨Meta的解决方案前,我们有必要了解当前Agent训练面临的两大核心挑战。主流训练方法各有其难以逾越的局限。

AI训练方法对比图

第一种方法是模仿学习(SFT),依赖"高成本的静态反馈"。这种方法要求Agent像学生背诵范文一样,模仿人类专家的操作示范。

高质量专家数据本就难以大规模采集,更致命的是其能力的局限性:静态反馈仅告诉模型"应该怎么做",却无法传达"不这样做的后果"。这一缺陷导致Agent在遇到训练数据外的情况时极度脆弱,难以适应环境变化。

第二条路是强化学习(RL),依赖"复杂的动态反馈"。Agent通过环境奖励信号进行试错学习。虽然可以无限探索,但由于依赖清晰的奖励信号,在实际应用中往往效率低下。

现实世界的复杂任务(如网页浏览、多步骤工具使用)往往缺乏明确即时的奖励信号。在多步骤任务中,奖励可能延迟到操作序列最末端才出现,甚至模糊不清。这种"功劳分配"难题使得训练过程极不稳定。

目前语言Agent环境普遍缺乏支持大规模RL训练的基础设施,包括可靠的模拟器、标准化重置机制和可扩展评估平台。这导致RL应用严重依赖精心设计的奖励函数。

结果形成了两难困境:简单的训练不够强大,强大的训练难以应用。

02 "中训练"范式的突破

Meta的工作提出了名为"早期经验"的创新方案:让Agent从自身探索中获得学习信号。

这一方法基于一个深刻洞见:Agent自主探索产生的环境状态变化,本身就是宝贵的学习资源。

举个例子,训练Agent预订机票时,传统模仿学习只会展示成功案例。而"早期经验"会鼓励Agent自主尝试:输入错误日期会怎样?填写错误证件号码会产生什么结果?每次尝试后,Agent可以观察系统反馈——提示信息、页面跳转、表单状态变化等。

研究者设计了两种具体训练策略:隐式世界建模和自我反思。

训练策略示意图

隐式世界建模(IWM)的核心是训练Agent预测"行为会产生什么结果"。具体流程包括:

自主探索:在每个示范状态下,生成多种备选动作;

记录数据:真实执行这些动作并记录环境响应;

训练预测:让模型学会基于"当前状态+动作"预测"未来状态"。

隐式世界建模流程图

自我反思(SR)则让Agent学会解释"为什么专家示范最优"。步骤包括:

对比分析:同时观察专家动作和自主尝试结果;

生成反思:通过大型语言模型分析专家选择的合理性;

训练决策:让Agent先进行反思推理,再输出正确动作。

自我反思Prompt示例

实验结果显示:

实验结果数据图

• 平均成功率比传统模仿学习提升9.6%

• 新任务表现提升9.4%

• 为强化学习提供更好的初始化表现

03 中训练的理论基础

Google DeepMind的最新研究证明,优秀Agent必须拥有精确的"世界模型"。"早期经验"的成功在于让Agent建立起对环境的因果理解。

世界模型理论图示

这一成果凸显了三段式训练范式的价值:

第一阶段(预训练):获取语言和知识基础

第二阶段(中训练):构建世界运行规律认知

第三阶段(后训练):优化具体任务策略

04 参数效率的飞跃

"早期经验"展示了参数优化的新可能。通过深度递归训练,700M参数的小模型在某些任务上超越了大十几倍的模型。

这表明传统扩展模式的边际效益递减。而深度递归训练这类方法,可能开创Test Time Compute的新Scaling Law。

论文地址:[2510.08558] Agent Learning via Early Experience

来源:https://36kr.com/p/3507275210022022
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

卡达诺2030蓝图发布:莱奥斯升级引领网络进化
web3.0
卡达诺2030蓝图发布:莱奥斯升级引领网络进化

卡达诺生态的下一站:从研发深水区驶向规模化蓝海 区块链世界从不缺少雄心,但能将蓝图一步步变为现实的玩家却不多。近期,卡达诺核心开发团队Input Output Global(IOG)发布了一份面向2030年的网络可扩展性战略,目标明确:将网络每月交易处理能力从当前的80万笔,大幅提升至2700万笔。

热心网友
04.27
企业加密货币wallet是什么?热wallet与冷wallet如何选择?
web3.0
企业加密货币wallet是什么?热wallet与冷wallet如何选择?

企业加密货币钱&包:在便捷与安全之间找到你的平衡点 数字化浪潮下,企业如何安全、高效地管理数字资产,成了一个绕不开的核心议题。企业加密货币钱&包,正是为此而生的专业工具。它远不止一个存储地址那么简单,更是集成了多用户权限、交易审批、财务系统对接等企业级功能的管理中枢。简单来说,它的核心任务就两个:安

热心网友
04.27
PhpStorm配置GitHub Copilot_AI辅助编程插件安装与使用
编程语言
PhpStorm配置GitHub Copilot_AI辅助编程插件安装与使用

PhpStorm配置GitHub Copilot:AI辅助编程插件安装与使用 PhpStorm里装不上GitHub Copilot?先确认IDE版本和插件源 如果你在PhpStorm里死活装不上GitHub Copilot,问题大概率出在版本上。一个关键前提是:PhpStorm 2023 3及之后的

热心网友
04.27
Notepad++宏功能怎么录制_Notepad++自动执行重复操作技巧
编程语言
Notepad++宏功能怎么录制_Notepad++自动执行重复操作技巧

Notepad++宏录制需先打开文档(如Ctrl+N新建标签),否则按钮灰色禁用;仅捕获键盘操作与部分菜单命令,不支持鼠标、对话框交互;录制后须手动导出XML保存,否则重启丢失。 怎么开始录制宏却没反应? 很多朋友第一次用Notepad++的宏功能,都会遇到一个经典问题:那个“开始录制”的按钮,怎么

热心网友
04.27
ORDI价格预测2026-2030:是否会实现百倍增长?
web3.0
ORDI价格预测2026-2030:是否会实现百倍增长?

Ordinals (ORDI) 深度展望:2026-2030,百倍增长是神话还是可期的未来? 加密货币市场从不缺少惊喜,而Ordinals协议及其原生代币ORDI的异军突起,无疑是近年来最引人注目的叙事之一。这项技术巧妙地将数据“铭刻”在比特币的最小单位——“聪”上,硬生生在价值存储的基石上,开辟出

热心网友
04.27