首页 游戏 软件 资讯 排行榜 专题
首页
AI
AI智能体评测为何存在不公北邮团队深度解析

AI智能体评测为何存在不公北邮团队深度解析

热心网友
14
转载
2026-05-12

这项由北京邮电大学、伊利诺伊大学芝加哥分校和重庆邮电大学联合开展的研究,于2026年2月以预印本形式发布(论文编号:arXiv:2602.03238v1)。研究团队系统性地揭示了当前大型语言模型智能体评估体系中存在的根本性缺陷,并深入论证了建立标准化、统一化评测框架的紧迫性与必要性。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

北邮团队深度揭露:为什么AI智能体评测如同在不公平的考场里比赛?

回想学生时代的考试,最令人感到不公的莫过于身处一场规则不一的竞赛。有的考生可能提前获知了题目范围,有的配备了更先进的答题工具,还有的则在更优越的考场环境中作答。在这样的条件下,最终的成绩还能客观衡量真实的知识水平吗?

如今,在人工智能的前沿领域,一种被称为“AI智能体”的系统正面临类似的困境。这些智能体已超越了简单的对话交互,进化成能够自主规划、调用工具、在复杂场景中执行多步骤任务的智能助手,例如处理在线预订、规划项目流程或协调多方任务。然而,当研究人员试图评估这些智能体的真实能力时,却发现自己陷入了一个评测标准混乱、可比性极低的“泥潭”。

问题的核心在于,当前的智能体评估就像在不同规格和规则的考场中进行。有的智能体掌握了高度优化的“解题策略”(即系统提示词),有的配备了更强大、更兼容的“外部工具库”,还有的在更稳定、友好的“运行环境”中接受测试。其结果是,我们很难判断一个智能体的优异表现,究竟源自其内在的“认知与推理能力”,还是得益于外部“评测条件”的加持。

研究明确指出,这种混乱局面已严重阻碍了AI智能体领域的健康发展。当一项研究宣称其智能体性能取得显著提升时,业界无法确定这究竟是模型核心能力的真实突破,还是仅仅源于评测设置上的“技巧性”优化。这就好比两位学生在难度完全不同的试卷上都取得了高分,我们无法直接、公平地判断谁更优秀。

传统AI模型的评估相对直接,类似于标准化的笔试:给定输入,模型产生输出,根据输出准确性进行评分。但智能体的评估则复杂得多,它需要在动态交互中执行一系列关联决策与行动,其过程更像评估一个人完成一个复杂项目的综合能力,而非回答一道孤立的选择题。

一、推理配置的陷阱:相同“大脑”,迥异“思维模式”

在智能体评估中,推理配置如同控制AI“思考模式”的开关。即便是相同的底层模型,在不同的配置下也可能展现出天差地别的性能。这种差异主要源于以下三个方面。

首先是推理接口与协议的差异。不同的AI服务提供商如同执行不同监考标准的考官。例如,同一项操作指令,通过OpenAI的接口可能顺利执行,而通过其他平台的接口却可能因更严格的内容安全策略而被拒绝。这就像同一道题目,在不同考场被赋予了不同的解读规则与限制条件。

更微妙的是,即便是访问同一AI模型,渠道不同也可能导致结果偏差。研究发现,通过微软Azure平台调用的GPT模型与直接通过OpenAI官方API调用的同一模型,在处理相同任务时,可能因各自平台后端的内容管理策略差异而产生不同输出。这种差异与智能体自身能力无关,纯粹是“考场规则”不一致所致。

其次是推理参数与随机性的影响。尽管研究者通常会将温度(Temperature)等控制随机性的参数设为零以减少波动,但AI的推理过程仍非完全确定。对于需要多步决策的复杂任务,初始阶段微小的随机性可能会在后续步骤中被不断放大,最终导向完全不同的任务执行轨迹与结果。

最后是推理引擎本身的差异。即便是相同的开源模型,在不同的软硬件部署环境中运行,也可能因底层计算库版本、浮点精度设置或编译优化策略的不同而产生性能波动。这好比同一名运动员,在不同的场地条件、气候环境和装备支持下,成绩必然存在起伏。

这些因素共同构筑了一个不平等的竞技场,使得评估在很大程度上变成了对系统配置与调优能力的比拼,而非对智能体本质认知与决策能力的检验。

二、提示与规划策略:迥异的“应试培训”体系

如果说推理配置决定了智能体的“基础智力条件”,那么提示和规划策略就相当于为其提供的“应试技巧培训”。不同策略带来的表现差异,有时甚至远超模型本身的能力差距。

提示策略的差异如同为学生提供不同详略程度的考纲与秘籍。一些开源智能体框架使用了极其详尽、动辄数千字的系统提示,其中嵌入了大量的操作规则、逻辑范式、工具使用示例和避坑指南。这无异于提供了一份接近“满分答案”的答题模板。相比之下,许多评估基准仅使用简洁的任务描述作为提示,让智能体更多地依赖自身的“临场推理与发挥”。

这种差异的影响是决定性的。研究显示,同一模型在使用不同复杂度和信息量的提示时,其性能差距可达数倍之多。高度优化的系统提示相当于为智能体内置了丰富的领域知识和解题经验,其优势可能更多归功于提示工程(Prompt Engineering)的技巧,而非模型自身的泛化与推理能力。

规划策略的差异则体现在任务分解与执行的逻辑深度上。目前主流智能体大多采用ReAct(推理-行动-观察)或其变体框架,但具体实现千差万别。有的框架允许智能体进行深度的反思、错误回溯与计划调整,有的则只提供基础的线性规划与执行能力。

这就像同样教授“分步解题法”,但A老师强调每一步的自我验证与动态调整,B老师只要求按固定顺序执行。前者的学生在面对复杂多变的问题时显然更具优势,但这种优势源于“方法论”与“元认知”的训练,而非纯粹的“智商”高低。

三、记忆机制:不同的“笔记与信息管理”系统

智能体的记忆机制,如同考试中被允许使用的“笔记与参考资料”。不同的记忆系统赋予了智能体截然不同的信息记录、存储与回溯能力,这在执行长链条、多步骤的复杂任务时影响尤为显著。

记忆格式的差异是首要因素。一些框架将历史行动、观察结果和中间状态以高度结构化的形式(如JSON、特定标记语言)记录,清晰标注每一步的类型、参数与结果,形成一份条理分明的“结构化行动日志”。而另一些框架可能只是简单地将所有文本信息线性拼接成一段冗长的自然语言。当智能体需要从过往经验中学习或纠正错误时,结构化的记忆如同索引完善的笔记本,能快速定位关键信息;非结构化的记忆则像一团未经整理的草稿,难以有效提取和利用。

短期记忆的管理策略则关乎如何处理信息过载与注意力分配。智能体如同人类,存在上下文处理能力的“注意力”上限。当任务交互信息超出其处理窗口时,不同框架采用了不同的记忆淘汰与压缩机制:有的采用简单的“先进先出”策略,像一本写满即覆盖的便签;更先进的框架则可能采用智能摘要技术,自动提炼并保留核心信息,或引入检索增强生成(RAG)系统,实现信息的按需精准调取。

长期记忆能力则决定了智能体能否进行跨任务、跨会话的知识积累与复用。部分框架集成了向量数据库等复杂的知识存储与检索系统,能够从海量历史经验中关联和调用相关信息;其他框架则可能完全不具备这种持续学习与知识沉淀的能力。

由此可见,智能体的表现很大程度上受限于其被赋予的“记忆工具”的先进性与适用性,这严重模糊了对其核心信息处理与推理能力本身的客观评判。

四、工具调用:规格不一的“外部装备”

工具调用是智能体区别于传统生成式AI的核心能力,但不同评估框架对工具的定义、描述与使用规则存在巨大差异,这如同让运动员使用不同规格、不同标准的器材进行同场竞技。

工具表示方式的差异首当其冲。一些云平台或评估环境要求工具描述必须遵循极其严格的格式规范,例如函数名称长度限制、特定字符禁用、参数类型的强制声明等。而智能体在本地自由部署时,这些限制往往不复存在。一个能力相同的智能体,在严格的规范下可能因无法正确格式化调用指令而失败,在宽松环境下却能顺利完成任务。

参数类型与数据格式支持的差异进一步加剧了不公平性。研究发现,某些常用的数据类型(如特定的文件格式、图像编码)或参数传递方式在一些平台上被完全禁止或限制使用,直接导致合法的工具调用失败,而在其他平台上却畅通无阻。这好比有些考试明确禁止使用某种高效且通用的解题工具,即便该工具本身合理合法。

这些隐性的技术壁垒与兼容性问题使得评估环境充满“陷阱”。智能体的失败,可能并非源于不懂如何解决问题,而是因为不熟悉特定“考场”提供的特殊“文具”的使用方法或格式要求。遗憾的是,这些工具环境的细节差异在多数评估报告中并未被充分披露,导致跨研究、跨平台的性能比较在很大程度上失去意义。

五、外部环境:变幻莫测的“考场现场”

外部环境是智能体执行任务的“实时舞台”,但许多现有评估环境如同一个持续变幻、不可预测的考场,让公平比较无从谈起。

最典型的例子是基于真实互联网环境的动态评估。一些基准测试让智能体直接操作浏览器进行实时搜索、信息抓取和网页交互,这虽然极大提升了任务的真实性与复杂性,却也引入了根本性的不稳定因素。

以BrowseBench等基准为例,研究团队详细分析了这种不稳定性。由于网络内容的持续更新、网站前端改版、服务接口变动或页面直接关闭,许多原本设计良好的评估任务会随时间推移变得无法解决或标准答案发生改变。这就像安排学生参加考试,但考题的内容和标准答案却在考试期间随机变动。智能体的表现更多取决于它“碰巧”遇到了哪个时间点的网络状态,而非其稳定、泛化的能力。

为此,一些改进版基准(如BrowseComp-Plus)尝试将动态网络内容“快照”保存为静态的本地数据库,从而固定了评估环境。结果显示,在原版动态环境中,已有相当比例的任务因环境变化而失效或答案漂移,这证实了环境不稳定性对评估公正性与可重复性的严重破坏。

这一问题普遍存在于任何依赖外部API服务、实时数据流或动态交互内容的评估场景中。更严重的是,它直接挑战了科学研究的基石——可重复性原则。如果评估环境持续变化,今天得到的结果明天便无法复现,那么不同研究之间基于此类结果的比较也就失去了科学基础。

六、统一框架的必要性:建立公平的“竞赛规则与赛场”

面对上述评估乱象,研究团队旗帜鲜明地提出了构建统一、标准化评估框架的迫切需求。这如同为一项新兴的竞技运动建立全球通行的竞赛规则、标准的场地规范与一致的裁判尺度。

该框架的核心思想是将评估系统解耦为两个关键部分:标准化的沙盒执行环境与统一的评估度量方法。沙盒环境提供确定、可控、可复现的执行舞台,评估方法则确保度量标准的一致性与可比性。

沙盒环境借鉴了计算机安全与软件测试领域的成熟理念,旨在创建一个完全受控的虚拟执行空间。其关键在于极致的确定性与可重现性。所有变量——包括推理配置、系统提示模板、记忆机制实现、工具接口定义——都被严格标准化。动态、不可控的外部世界被替换为静态的、版本控制的模拟环境(例如本地化的网页快照、模拟的API响应、预设的数据库状态)。

这不仅确保了评估的公平性,也解决了安全性测试的伦理与风险问题。当需要测试智能体的对抗性行为、安全边界或潜在风险时,在封闭的沙盒中进行远比在真实环境中更安全、更可控、更符合伦理规范。

评估方法的统一则致力于解决“评分标准不一”的核心痛点。当前各基准测试使用的指标(如成功率、步骤数)看似相似,实则可能衡量着不同的能力维度或采用了不同的计算口径。统一的评估方法将建立标准的指标定义、计算流程、统计方法与结果解读规范。

需要明确的是,推动统一框架的目的绝非限制技术创新或强求方法论一致。恰恰相反,它旨在为整个研究社区提供一个公平的“起跑线”和精确的“测量尺”,让真正的算法创新、架构突破能在可比、可信的标准下脱颖而出,避免“劣币驱逐良币”。

七、具体实现方案:搭建标准化的“智能体测评系统”

基于上述理念,研究团队勾勒了一套具体可行的实现方案,如同设计一套完整的标准化考试系统,涵盖命题、考场、评分全流程。

标准化数据集的构成是整个体系的基石。智能体评估需要比传统AI评估更复杂、更结构化的数据,应包含三个紧密耦合的组成部分: 1. 任务指令集:明确定义需要多步骤交互的复杂任务,并配以清晰的成功标准与细化的评估规则(不仅关注最终结果正确性,也考量决策过程的合理性、工具使用的效率等)。 2. 标准化工具集:提供一套标准化的工具接口定义。建议采用基于Python等语言的统一工具协议(如函数签名规范),确保一致的工具描述、参数规范与调用方式,消除工具层面的兼容性问题。 3. 静态化环境集:提供静态、版本控制的虚拟世界模拟。用本地文件或数据库模拟外部数据源,用离线网页快照替代实时互联网访问,用模拟API替代真实网络服务,确保每次评估的执行环境完全一致、可复现。

统一智能体系统架构是另一大支柱。建议社区采纳或共同设计一个为通用性、可评估性而生的开源参考框架(如smolagents、LangChain的特定配置模式)。使用共享的参考框架能确保智能体的初始化、提示构建、规划流程、工具调用、记忆管理等核心组件遵循一致的技术约定。对于坚持使用自研框架的研究,也应鼓励其遵循社区共识的架构标准与接口规范,以保持结果的可比性。

多维度综合评估方法则完善了整个测评体系。智能体评估需超越简单的最终输出正确性判断,应涵盖多个能力维度: - 结果正确性评估:检查最终答案的正确性,以及在环境中引发的预期状态改变是否达成。 - 决策过程合理性评估:分析工具调用序列、参数选择、执行顺序的逻辑性与效率。可通过与预定义的“黄金轨迹”或专家策略进行对比来实现。 - 稳健性评估:采用标准化的pass@k等统计协议(在整个基准中固定k值),通过多次运行取统计结果,以平滑AI推理固有的随机性影响,评估表现的稳定性。 - 资源效率评估:量化任务执行过程中的资源消耗,如总令牌数(成本)、任务延迟(时间)、交互步骤数(复杂度),衡量智能体以最少资源达成目标的能力。 - 统一化失败归因分析:建立标准化的失败原因分类法(涵盖推理错误、规划错误、工具使用错误、环境交互错误等大类),并配以自动化或半自动化的归因流程。这对于精准诊断智能体弱点、实现跨基准的深度比较至关重要。

八、应对潜在质疑:平衡标准化与创新活力

研究团队也预见了可能面临的质疑与挑战,并主动作出了前瞻性回应。

质疑一:过度标准化会抑制技术创新吗? 有人担心统一的评估框架会偏向主流或某类特定的智能体设计,使非传统、探索性的架构处于不公平的劣势。对此,团队强调框架设计应保持高度的可扩展性与模块化,其核心是标准化“评估接口”与“执行环境”,而非规定“智能体的内部设计与算法”。如同体育竞赛,统一的规则是为了确保公平竞赛,并不限制运动员发展独特的训练方法、战术体系与个人技术。

质疑二:沙盒环境是否过于理想化,脱离现实? 强调确定性与可控性的沙盒环境确实会损失一些“生态效度”(即与真实世界复杂性的吻合度)。团队承认这一权衡,但指出沙盒评估应被视为对智能体核心认知与推理能力的“受控体检”或“基础能力测试”,而非真实世界部署性能的完全替代。它与真实世界测试(A/B测试、小范围试点)是互补而非对立的关系,前者提供科学严谨性与可比性,后者验证实际适用性与鲁棒性。

质疑三:仅统一工具调用协议就足够了吗? 现有的某些标准化努力(如模型上下文协议)主要改善了工具调用的语法互操作性,但未触及评估方法本身与环境的一致性。团队指出,他们提出的框架远不止于此,它涵盖了从数据集构成、评估指标、执行环境到失败分析的完整评估管道标准化,旨在从根本上系统性地解决问题,而非局部修补。

研究团队最终明确了其倡议的范围与意图:推动建立统一框架的必要性在于为智能体评估建立科学、严谨、可信的比较基础。其目标不是限制方法论的多样性,而是确保整个研究社区能在同一套“度量衡”下进行有效对话、积累可靠知识。框架的成功,最终依赖于全球研究社区的广泛共识、共同采纳与持续维护。

总而言之,这项研究深刻揭示了AI智能体评估领域一个至关重要却长期被忽视的症结。在没有统一规则和标准赛道的比赛中,我们无法判断谁是真正的冠军;在混乱、不可比的评估条件下,我们也难以准确衡量智能体的真实能力水平。

研究表明,许多宣称的性能突破,可能只是“评估技巧”或“配置优化”的胜利,而非“智能本质”的飞跃。这不仅造成宝贵研究资源的浪费与内耗,更可能误导整个领域的技术发展方向,延缓真正实用化智能体的诞生。

这项研究为领域指明了一条走向成熟与健康的必经之路:建立公平、透明、可重现、多维度的统一评估基准。唯有如此,AI智能体技术才能在坚实、可信的科学基础上稳步前进,最终催生出真正可靠、强大、实用的智能助手,赋能千行百业。

Q&A

Q1:什么是AI智能体,它和普通的AI有什么区别?

A:AI智能体可以被理解为具备自主行动与决策能力的AI助手。它与传统问答式AI(如聊天机器人)的关键区别在于“自主能动性”与“任务闭环能力”:智能体不仅能理解用户意图,还能主动规划步骤、调用各种外部工具(如搜索引擎、计算器、软件API)、在动态环境中执行复杂的多步骤任务,并最终达成目标,例如完成从信息查询、比价、决策到预订支付的完整差旅安排。而普通AI更像一个知识渊博但被动的信息提供者或对话者。

Q2:为什么AI智能体评估会存在不公平问题?

A:核心原因在于评估缺乏统一的“标尺”和“赛场”。当前的状况如同让运动员使用不同的装备、在不同的场地、依据略有不同的规则进行比赛。智能体之间的性能差异,可能源于模型本身的算法优势,也可能源于其使用的提示工程技巧、工具接口兼容性、运行环境配置乃至评估执行时的随机因素。这种多变量的混杂使得跨不同研究、不同平台的公平比较几乎不可能,也动摇了研究结论的可信度。

Q3:统一评估框架会如何改变AI智能体的发展?

A:统一评估框架将为该领域提供一个公平、稳定、可信的“测速仪”与“指南针”。首先,它能帮助研究者清晰辨别性能提升的来源,从而将资源更有效地投入到真正的算法与架构创新上,而非评估技巧的局部优化上。其次,它极大提升了研究的可复现性、可对比性与可积累性,加速可靠科学知识的沉淀与共享。长期来看,这将引导整个领域走向更扎实、更高效、更协作的发展路径,最终更快地催生出真正强大、可信赖、可落地的实用化AI智能体产品与服务。

来源:https://www.techwalker.com/2026/0205/3178634.shtml
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

AI智能体评测为何存在不公北邮团队深度解析
AI
AI智能体评测为何存在不公北邮团队深度解析

这项由北京邮电大学、伊利诺伊大学芝加哥分校和重庆邮电大学联合开展的研究,于2026年2月以预印本形式发布(论文编号:arXiv:2602 03238v1)。研究团队系统性地揭示了当前大型语言模型智能体评估体系中存在的根本性缺陷,并深入论证了建立标准化、统一化评测框架的紧迫性与必要性。 回想学生时代的

热心网友
05.12
西安交大AI智能体实现类人三思推理系统突破
AI
西安交大AI智能体实现类人三思推理系统突破

近日,一项由西安交通大学、南洋理工大学、新加坡国立大学及华南理工大学联合开展的人工智能研究取得重大进展。这项发表于2025年初的成果,针对AI智能体长期存在的“短视推理”难题,提出了一个名为MAXS(元自适应探索)的创新框架,为提升机器的深度规划能力提供了全新解决方案。 人类在应对复杂任务时,天然具

热心网友
05.12
人大团队攻克AI健忘难题:让智能体从批评中持续学习进化
AI
人大团队攻克AI健忘难题:让智能体从批评中持续学习进化

想象一下指导孩子学习的场景:初期需要手把手传授基础知识,当孩子掌握基础后,教学方式就必须调整,转而关注更精细的改进点。然而,当前大多数AI智能体的训练过程,却陷入了一个关键困境——其内置的“评估反馈系统”缺乏适应性,始终使用同一套评判标准,无法跟上智能体自身能力的快速演进。这种“反馈失效”问题,已成

热心网友
05.12
清华大学AI智能体训练新突破:像侦探一样聪明探索的革命性方法
AI
清华大学AI智能体训练新突破:像侦探一样聪明探索的革命性方法

这项由清华大学、北京大学和浙江大学联合完成的突破性研究,已于2026年1月发布,论文编号为arXiv:2601 20209v1。对技术细节感兴趣的读者,可以通过该编号查阅完整的学术论文。 训练一个AI智能体,有时很像培养一名顶尖的侦探。传统的方法,好比要求这位侦探在每一个案发现场——无论是简单的失物

热心网友
05.12
高通CEO称AI智能体元年开启 智能眼镜前景广阔
业界动态
高通CEO称AI智能体元年开启 智能眼镜前景广阔

2026年,可能会成为我们与机器交互方式的一个历史性分水岭。最近,高通首席执行官克里斯蒂亚诺·阿蒙在接受采访时,明确提出了一个观点:2026年将是“AI智能体”的元年。这并非空泛的预测,而是基于技术演进脉络的一次系统性展望。 阿蒙的核心逻辑很清晰:当下的AI已经跨越了概念演示阶段,正通过“智能体”的

热心网友
05.12

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

ServiceNow隐藏信息训练法让AI智能助手自主学习无需指导
AI
ServiceNow隐藏信息训练法让AI智能助手自主学习无需指导

在AI技术日新月异的今天,如何让机器真正掌握复杂技能,始终是行业探索的核心。这有点像教育孩子,仅仅提供答案是不够的,关键在于教会他们独立思考的方法。最近,一项由ServiceNow、蒙特利尔大学、麦吉尔大学和蒙特利尔高等商学院联合完成的研究,为这个难题提供了一个巧妙的解决方案。这项发表于arXiv预

热心网友
05.12
加州大学戴维斯分校与DeepMind合作研发AI注意力训练新方法
AI
加州大学戴维斯分校与DeepMind合作研发AI注意力训练新方法

人工智能的训练,一直像在教学生“标准答案”。但现在,风向变了。一项由加州大学戴维斯分校与Google DeepMind等机构合作的研究,提出了一种碘伏性的新思路:与其告诉AI“答案是什么”,不如教会它“该看哪里”。这项发表于2026年2月(论文编号:arXiv:2602 04884v1)的工作,为多

热心网友
05.12
华盛顿大学数学定理库突破 920万条目中快速精准检索方法
AI
华盛顿大学数学定理库突破 920万条目中快速精准检索方法

想象一下,你是一位数学家,脑海中有一个模糊的定理轮廓,知道它一定存在于浩如烟海的文献中,却不知从何找起。传统的搜索工具,无论是谷歌学术还是最新的AI助手,都像是在一个巨大的图书馆里,只能告诉你“你要的书大概在哪个区域”,而无法精准定位到那一页。这种困境,不仅耗费研究者无数时间,甚至可能导致重复劳动—

热心网友
05.12
复旦大学交互式监督框架让普通人轻松指挥AI完成专业任务
AI
复旦大学交互式监督框架让普通人轻松指挥AI完成专业任务

这项由复旦大学自然语言处理实验室与上海奇绩智丰公司合作完成的研究,已于2026年2月正式发布,相关论文可在arXiv平台查阅,编号为arXiv:2602 04210v1。对技术实现细节感兴趣的开发者或研究人员,可依据此编号获取完整论文进行深入研读。 人工智能的能力正突飞猛进,但一个普遍的困境也随之出

热心网友
05.12
法国AI监测城市变迁数据集发布 全球最大建筑变化检测
AI
法国AI监测城市变迁数据集发布 全球最大建筑变化检测

监测城市建筑的变化,过去对科学家来说,就像在巨大的拼图上用放大镜寻找细微差异,既费力又低效。但现在,情况正在改变。一项由法国Retgen AI公司团队主导、并于2026年1月30日发布在arXiv平台(编号:arXiv:2601 22596v1)的研究,带来了一个突破性的工具——覆盖法国全境的超大规

热心网友
05.12