首页 游戏 软件 资讯 排行榜 专题
首页
AI
卡内基梅隆大学首创AI视觉技术让机器像人一样理解物体运动

卡内基梅隆大学首创AI视觉技术让机器像人一样理解物体运动

热心网友
32
转载
2026-05-14

这项由卡内基梅隆大学、德州大学奥斯汀分校、布朗大学、Lambda实验室和以色列理工学院共同完成的研究,发表于2026年的国际学习表征会议(ICLR),论文预印本编号为arXiv:2603.04553v1。该研究提出了一种突破性的视觉AI模型,旨在让机器像人类一样理解并预测物体运动。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

卡内基梅隆大学团队首创:让AI像人类一样理解物体运动的突破性视觉技术

想象一下,当你看到一个篮球在地面弹跳时,大脑能瞬间追踪其轨迹、预判落点,甚至模拟出被外力干扰后的运动。这种看似 effortless 的能力,实则依赖于大脑复杂的视觉处理系统:识别物体、理解物理规律、预测未来状态。如今,一项名为LPWM(潜在粒子世界模型)的人工智能系统,正致力于让机器获得这种类人的、对物体运动进行理解和预测的核心能力。

这项研究的核心突破,在于直击了当前计算机视觉领域的一个根本性挑战。传统方法通常将图像视为静态的“像素网格”进行处理,这种方法擅长识别物体,却难以深入理解物体间的动态关系与交互规律。LPWM则另辟蹊径,采用了革命性的“粒子化”表征:它将视频中的每个独立物体编码为一个包含位置、尺寸、深度、透明度和外观特征的“智能粒子”。这些粒子能够自主学习物体的运动模式,并精准预测其未来的状态演变。

更为关键的是,LPWM首次实现了完全自监督的、以物体为中心的世界建模。这意味着它无需任何人工标注数据,仅通过观看大量视频就能自动发现场景中的关键物体、边界框和掩码信息,从而学习复杂的场景解构。令人惊叹的是,LPWM不仅能够预测视频序列,还能根据动作指令、自然语言描述或目标图像进行条件化内容生成,这为未来的机器人自主控制、人机自然交互开辟了全新的可能性。

从“网格切块”到“智能粒子”:AI理解物体的新范式

可以将当前主流的AI视觉处理方式,类比为用马赛克瓷砖拼图。系统将每帧图像分割成固定大小的区块(称为“图像块”)进行分析。其弊端在于,一个完整的物体往往被分散到多个区块中,导致系统难以把握其整体性与独立性。

例如,在分析一场足球比赛时,传统AI看到的可能是一系列互不关联的视觉碎片,无法理解球员、足球、球门之间动态的攻防关系。而LPWM的“粒子化”方法截然不同:它会为视频中每一个重要的物理实体,动态创建一个专属的“智能粒子”。

这些粒子远非简单的像素点,而是承载了丰富语义信息的数字化实体。每个粒子都编码了对应物体的五大核心属性:三维空间中的位置坐标、物理尺寸范围、与其他物体的相对深度、可见程度(透明度),以及颜色纹理等外观特征。

设计的精妙之处在于,每个粒子都能独立地追踪其对应物体的状态变化。足球滚动,其对应粒子的位置信息便实时更新;球员起跳,相关粒子的深度和尺寸参数随之调整;物体被部分遮挡,其透明度属性便相应改变。通过这种方式,LPWM得以像人类观察者一样,自然地理解场景中每个物体的独立存在与彼此间的时空关联。

更重要的是,LPWM能完全自主地发现并创建这些粒子,无需人工预先标注哪些区域是“物体”。系统通过分析视频序列中的运动一致性、外观相似性等视觉线索,自动识别出值得关注的实体区域,并为其生成粒子表示。这种强大的自监督学习能力,使其能够处理从机器人灵巧操作到复杂游戏画面在内的多样化真实场景,并准确分解出关键交互物体。

预测未来的核心:潜在动作模块的运作机制

如果说智能粒子构成了LPWM感知世界的“眼睛”,那么潜在动作模块就是其进行推理和预测的“大脑”。这个模块的核心任务,是预测每个粒子在下一时刻将如何演化,就如同物理学家预测台球桌上每个球的运动轨迹。

传统的视频预测模型通常采用“全局动作”表征,即用一个统一的信号描述整个场景的变化,这好比用一个总开关控制整个房间的灯光,虽然简单却无法实现精细控制。LPWM的关键创新在于,它为每个粒子分配了独立的“潜在动作”向量,就像为场景中的每个物体配备了专属的、隐式的控制器。

这种分布式动作表征在多物体复杂交互场景中优势显著。以厨房烹饪为例:厨师翻炒时,锅、铲、食材、火焰都在运动,但各自的运动模式(平移、旋转、形变)截然不同。传统系统难以精确建模这些差异化的运动,而LPWM通过为每个物体分配独立的潜在动作,能够精准预测锅的晃动、食材的翻滚与火焰的摇曳。

潜在动作模块由两个核心组件协同工作:逆动力学预测器和策略先验网络。逆动力学预测器如同一位“动作推理师”,通过观察物体从当前状态到下一状态的变化,反向推断出导致这一变化的“隐藏动作”。策略先验网络则像一位“行为预测家”,基于当前状态和历史信息,预测物体最可能采取的下一步动作分布。

二者的配合颇具巧思。在训练阶段,逆动力学预测器通过观察真实的状态转移来学习精确的动作模式;策略先验网络则学习动作在时间序列上的分布规律。在实际应用时,系统既可以使用策略先验网络来采样最可能的未来动作,也可以通过给定特定的动作指令,经由动力学模块生成对应的未来状态。这种设计还天然支持多种条件化控制,例如将全局动作指令映射到局部粒子,或根据语言描述生成相应的物理交互。

从被动观察到主动控制:LPWM的闭环应用能力

LPWM的真正革命性价值,在于它实现了从被动视频理解到主动动作规划的“闭环”能力跨越。这个过程,类似于教会一个从未接触过乐器的人,仅通过观摩大师演奏视频就能学会弹奏——挑战巨大,但LPWM展示了这种可能性。

整个能力发展过程可类比医学专家的培养路径。首先,系统通过海量无标注视频进行预训练,建立对物理世界的基础认知,就像医学生通过观摩手术录像学习解剖结构与操作流程。此时,LPWM学会了识别物体、理解运动规律、预测短期变化,但尚不具备实际操作能力。

接下来的“技能迁移”阶段至关重要。当系统接触到少量带有动作标注的示范数据(如机器人操作视频)后,便开始学习如何将内部抽象的“潜在动作”表示,翻译成可执行的真实世界控制指令。研究团队设计了一个轻量级的映射网络,其作用如同经验丰富的教练,指导系统将理论知识转化为实践技能。

映射过程的关键在于采用了注意力池化机制。由于每个粒子都会产生自己独立的潜在动作提议,系统需要将这些分散的局部动作信号整合成一个协调的全局控制指令。注意力机制能够自动评估不同粒子动作的重要性权重,就像交响乐指挥协调不同声部,确保最终输出的“动作序列”和谐、有效。

在实际机器人任务测试中,LPWM展现了卓越的泛化与学习能力。在PandaPush任务中,系统需要控制机械臂将彩色方块推到指定位置。传统方法通常需要为不同数量、不同布局的方块训练不同的策略模型,而LPWM仅凭一个统一模型就能处理各种复杂变体。更令人惊喜的是,系统支持多视角训练,能够同时从多个摄像头角度观察场景,极大地提升了其在处理物体遮挡和复杂空间关系时的鲁棒性。

在更具挑战性的OGBench-Scene桌面操作环境中,LPWM进一步证明了其通用性。该环境模拟了包含抽屉、按钮、滑块、积木等多种物体的复杂场景,要求执行一系列长程、多步骤的操作任务。LPWM不仅能理解每个物体的功能属性及其相互关系,还能规划出合理的操作序列,在部分任务上的表现甚至超越了为该环境专门设计的基线方法。

全面性能评估:LPWM在多元场景下的卓越表现

为了严谨验证LPWM的有效性与通用性,研究团队在多个不同类型和难度的基准数据集上进行了全面测试,如同安排一位全能选手参加多项竞技,以全方位检验其综合能力。

在确定性物理仿真环境(如OBJ3D和PHYRE)中,LPWM展现了出色的物理规律理解能力。OBJ3D数据集包含类似积木的简单3D物体在重力作用下的碰撞运动,LPWM能够准确预测球体的滚动轨迹、碰撞后的动量传递以及最终的静止状态。在PHYRE物理推理基准测试中,面对更复杂的任务(如用工具移动目标物),LPWM表现出了对杠杆、斜面、碰撞等物理关系的深刻理解。

在随机动态环境中的表现更为突出。以Mario游戏数据集为例,其中包含密集且随机的交互元素,如敌人的不规则移动、道具的随机出现等。传统生成模型在此类复杂动态环境中常出现物体模糊、身份混淆或突然消失的问题,而LPWM凭借其物体中心的表示,能够始终保持关键游戏实体(如马里奥、敌人、金币)的清晰度与连续性,准确追踪其运动轨迹。

在真实机器人操作数据(如BAIR数据集)上的测试结果最具实际意义。该数据集记录了真实机械臂在桌面上执行抓取、推动、堆放等操作的过程。LPWM不仅能高保真地预测机械臂末端执行器的运动轨迹,还能准确预测被操作物体(如积木、玩具)的物理响应,包括滑动、旋转、碰撞和堆叠的稳定状态。

最引人注目的是LPWM在语言条件化任务上的表现。在Bridge和LanguageTable数据集中,任务由自然语言指令驱动,例如“把红色的方块放进蓝色的碗里”。LPWM能够理解这些指令的语义,并将其转化为正确的视觉预测和动作规划。这种能力对于实现直观的人机交互至关重要,使得非专业用户也能用自然语言指挥机器人完成复杂任务。

定量评估指标一致肯定了LPWM的优越性。在衡量生成视频视觉质量的LPIPS(学习感知图像块相似度)和FVD(Fréchet视频距离)等关键指标上,LPWM均显著优于以往的视觉预测模型。这些指标反映了生成内容在人类感知层面的真实性与连贯性,LPWM的领先表现证明其生成的视频序列更符合人类的视觉预期。

此外,LPWM还展现了强大的多模态采样能力。从同一个初始状态出发,系统能够基于不同的潜在动作采样,生成多种合理且多样的未来轨迹,就像一位围棋高手能够预见多种可能的棋局发展。这种能力对于在不确定环境中进行探索、或为机器人规划多样化的行为策略具有重要价值。

架构解析:编码器、解码器与动力学模块的协同

LPWM的核心架构犹如一个精密的“视觉-动作”翻译系统,在原始的像素世界与结构化的抽象表示之间架起桥梁。整个系统由四个主要组件协同构成,各司其职,如同一个配合默契的管弦乐团。

编码器组件扮演着“敏锐观察者”的角色,其任务是将原始图像帧转换为结构化的粒子集合表示。这个过程分为三个精密的步骤:首先是关键点提议,系统将图像划分为多个区域,并运用空间软最大值技术在每个区域内定位最具信息量的点,这些点通常对应物体的角点、边缘或纹理中心等显著特征。

紧接着是属性推断,系统围绕每个提议的关键点提取一个小的图像块,并通过神经网络分析该图像块,以推断对应物体的多种物理属性。这好比一位侦探通过局部线索推断目标的整体特征,包括其2D位置、估计的物理尺寸、相对于其他物体的深度顺序,以及当前的可见程度(透明度)。

最后是外观编码,系统会提取每个物体的视觉特征(颜色、纹理、形状模式),并将其编码为一个紧凑的高维向量。同时,系统还会通过掩码技术分离前景与背景,提取出纯净的场景背景特征。

解码器组件则执行相反的过程,负责将抽象的粒子表示“渲染”回具体的图像,如同根据建筑蓝图建造出立体模型。每个粒子首先被解码成一个小的RGBA(红绿蓝透明度)图像块,然后根据其位置和尺寸属性,被精确地放置到图像画布的正确位置,共同合成前景层。

背景处理是解码的另一关键环节。系统使用一个专门的背景解码器来生成完整的背景图像。最后,通过先进的图像合成算法,将前景粒子层与背景层进行融合,并充分考虑粒子间的深度关系和透明度,从而生成视觉上逼真、空间关系一致的最终图像。

动力学模块是整个系统的“时间引擎”,负责模拟粒子状态随时间的演化。该模块采用因果时空变换器架构,能够同时建模空间维度(粒子与粒子之间的相互作用)和时间维度(每个粒子自身的状态演变)。通过自注意力机制,系统能够捕获如碰撞、支撑、跟随等复杂的物体间交互;通过时序建模,它能预测每个粒子未来的轨迹。

一个特别创新的设计是“粒子网格”机制,用于优雅地处理物体身份持续跟踪的难题。传统目标跟踪方法需要显式地关联不同帧中的物体ID,这在遮挡严重或外观变化的场景中容易失败。LPWM的解决方案是保持一个固定的粒子网格位置身份,但允许每个粒子所代表的物体内容在局部范围内“流动”。当一个物理实体移动出某个粒子的责任区域时,相邻的粒子会自动“接管”对该实体的表征,实现了隐式、鲁棒的物体身份传递。

统一的多模态控制:语言、图像与动作指令的融合理解

LPWM最令人印象深刻的特性之一,是其强大的、统一的多模态条件化控制能力。这种能力如同一位精通多国语言的同声传译,能够理解不同形式的“指令”,并将其转化为系统内部统一的“行动纲领”。

语言条件化是其中最具挑战性的功能。当用户输入如“将蓝色小球推到红色方块左侧”这样的自然语言指令时,系统需要完成多层次的语义解析与映射。首先,预训练的语言模型将文本指令编码为高维语义向量。随后,这些语言向量通过一个投影层被映射到系统的内部表示空间,并通过交叉注意力机制与每一个视觉粒子的表示进行交互。

这种交互的巧妙之处在于,模型能够通过端到端训练自动学习语言概念与视觉实体之间的对齐关系。当指令提及“蓝色小球”时,系统会自发地增强对场景中符合该描述的粒子的关注;当指令包含“左侧”等空间关系时,系统会在相关粒子的潜在动作中施加相应的空间约束。整个过程无需任何人工设定的规则。

图像目标条件化提供了另一种直观的控制范式。用户只需提供一张目标状态的图像,系统便能自动分析当前状态与目标状态之间的差异,并逆向规划出一系列达成该目标所需的动作。这类似于导航软件,输入起点和终点,即可自动生成行驶路线。

在技术实现上,目标图像通过相同的编码器网络被转换为目标粒子表示。然后,通过一种称为“自适应层归一化”的机制,目标粒子的信息被注入到当前状态粒子的特征中,引导动力学模块生成朝向目标状态演化的动作序列。

动作条件化则更为直接,主要用于机器人控制等需要精确指令输入的场景。当系统接收到具体的关节角度或末端速度等全局动作指令时,一个轻量的映射网络会将这些全局指令分解并分配到受影响的各个粒子上,确保控制指令能精准地作用于目标物体。

多视角支持是LPWM适应现实世界复杂性的另一项重要特性。在配备多个摄像头的环境中,系统可以同时处理来自不同视角的图像输入。每个视角的图像被独立编码为一组粒子,并通过一个视角标识嵌入进行区分。所有这些视角的粒子会在动力学模块中进行联合推理,从而构建出一个更完整、更鲁棒的3D场景理解,有效克服了单视角下的遮挡问题。

这种多模态条件化能力的真正威力在于其可组合性。在一个复杂的机器人装配任务中,用户可以同时提供高层次的语言指令(“组装这个部件”)、中层的目标图像(展示最终组装状态)以及底层的安全动作约束。LPWM能够综合所有这些信息,生成既符合任务目标又满足安全约束的最优动作序列,为实现真正智能、柔顺的人机协作奠定了基础。

训练策略与优化细节:从理论构想到稳定实现

LPWM的成功,不仅源于其新颖的架构设计,更离不开研究团队在训练策略与优化技巧上的深厚功力。整个训练过程如同训练一位全能运动员,需要科学规划、分阶段侧重,并平衡多项能力的发展。

训练的核心目标基于变分自编码器框架,但LPWM对其进行了时间维度的扩展。系统需要同时优化两大能力:静态重建(准确地将粒子表示解码回图像)和动态预测(准确预测粒子序列的未来状态)。这要求损失函数精心平衡即时重建精度与长期预测一致性。

研究团队采用了分阶段的“课程学习”热身策略。在训练初期,模型主要聚焦于单帧图像的重建质量,这有助于稳定粒子编码器和解码器的学习。随后,训练重点逐渐转向多帧预测,让模型逐步掌握物体运动的动力学规律。这种由易到难的策略有效避免了训练初期的不稳定性。

针对粒子表示的稀疏性与可解释性,团队设计了基于透明度的掩码损失。只有透明度高于一定阈值的“活跃”粒子才会对重建损失产生显著贡献。这种机制鼓励模型使用尽可能少但信息量足够大的活跃粒子来解释整个场景,从而自然产生稀疏的、物体中心的表示,这与人类的视觉注意机制不谋而合。

正则化技术对于防止模型过拟合和保持表示简洁至关重要。系统对粒子的透明度值施加了L2正则化,防止模型“偷懒”地将所有粒子都设为高透明度(即全部活跃)来简单化地解释场景。这迫使模型学会甄别和选择场景中最关键的实体进行表征。

损失函数是一个多目标的加权组合,包括:图像重建损失(像素级和感知级)、潜在动作分布的KL散度损失(用于规范动作空间)、以及各种正则化项。研究团队通过大量的消融实验,为不同数据集找到了这些损失项权重的黄金配比。

考虑到不同数据源的特性,系统采用了自适应的损失设计。对于合成数据(如3D渲染场景),主要使用像素级的均方误差损失即可获得清晰结果;对于真实世界视频,则额外加入了基于深度神经网络的感知损失,以确保生成的图像在纹理、边缘等高级特征上更符合人类视觉感受。

在计算效率方面,LPWM也进行了精心优化。传统的时空变换器在处理长视频序列时计算复杂度呈平方级增长。LPWM通过分解的时空注意力机制,将计算分离为空间上的粒子间注意力与时间上的粒子自身演化注意力,显著降低了计算开销,并使得模型更容易进行大规模分布式训练。

为确保长达数天甚至数周的训练过程稳定收敛,团队还综合运用了梯度裁剪、学习率热身与余弦退火调度、模型检查点保存与恢复等一系列工程最佳实践。这些细节共同保障了如此复杂模型的成功训练与复现。

结语:迈向具身智能理解的关键一步

总而言之,LPWM代表了AI在理解动态物理世界方面的一次重要范式转变。它不仅突破了传统“网格化”处理方法在建模物体独立性与交互关系上的局限,更重要的是,它为构建能够真正“理解”而不仅仅是“看到”世界的AI系统提供了一条切实可行的技术路径。通过将视觉场景解构为一系列具有物理属性的智能粒子,LPWM让机器获得了近似人类的视觉直觉:区分物体、预测运动、并规划行动。

这项技术的影响将远远超出学术研究的范畴。在机器人领域,LPWM可以赋能机器人更深入地理解场景,实现更灵巧、更通用的操作技能。在自动驾驶领域,它可以提供更精准的环境动态预测,提升行车安全。在内容生成领域,如游戏开发和影视特效,它可以生成更具物理真实感的交互动画。更令人期待的是,它为实现通过自然语言指令即可操控的通用型机器人助理铺平了道路。

当然,LPWM目前仍存在其适用范围和局限性。例如,它更适用于静态或缓慢移动的摄像机场景,对于剧烈相机运动或完全非结构化的开放世界环境,其性能仍有待提升。但正如论文作者所指出的,这些挑战恰恰指明了未来的研究方向:扩展到更庞大、更多样的数据集;实现视觉、语言、触觉等多模态信号的统一建模;以及与高级任务规划和强化学习框架进行更深度的融合。

从更宏观的视角看,LPWM体现了人工智能研究从“感知智能”向“认知智能”乃至“具身智能”演进的重要趋势。这种演进不仅需要算法和算力的进步,更需要对人类自身认知机制(如我们如何理解物体的持久性、因果性)的深入借鉴。LPWM通过引入这种物体中心的、可操作的视觉世界模型,正是朝着让AI拥有“常识”和“物理直觉”这一宏伟目标迈出的坚实一步。

Q&A

Q1:LPWM的“智能粒子”与传统计算机视觉的图像处理方法根本区别是什么?

A:根本区别在于表征的单元和方式。传统方法(如卷积神经网络)将图像处理为固定网格的像素或特征图,缺乏对物体“实体”的显式表征。而LPWM的“智能粒子”是以物体为中心的,每个粒子代表一个物理实体,并编码其位置、大小、深度、外观等完整属性。这使得AI能像人类一样,将场景理解为由独立、可追踪的物体组成的集合,从而更好地推理物体间的交互和运动。

Q2:LPWM如何实现从“看视频”到“做动作”的技能迁移?

A:LPWM通过两阶段学习实现该迁移。第一阶段是“观察学习”:通过海量无标注视频,模型学习将视觉场景解构为粒子并预测其动态,建立世界模型。第二阶段是“动作关联学习”:利用少量带有动作标注的数据(如机器人演示视频),训练一个轻量的“动作映射网络”,该网络学会将模型内部预测的“潜在动作”粒子状态,对应到真实机器人可执行的控制指令(如关节角度)。关键在于,第一阶段学习到的丰富物理知识为第二阶段的技能迁移提供了强大的先验基础。

Q3:LPWM能否同时处理语言、图像和动作指令等多模态输入?

A:可以,这是LPWM的核心优势之一。它设计了一个统一的架构来处理多种模态的指令: - 语言指令:通过预训练语言模型编码,并与视觉粒子进行交叉注意力交互,使粒子状态朝向语言描述的目标演化。 - 图像目标:将目标图像编码为粒子状态,通过对比当前状态与目标状态的差异,规划出达成目标的动作序列。 - 动作指令:直接将低层控制指令映射到受影响粒子的潜在动作空间。 这些模态可以单独使用,也可以灵活组合,为实现复杂、分层的人机交互任务提供了极高的灵活性。

来源:https://www.techwalker.com/2026/0317/3181377.shtml
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

CTO如何平衡AI效率提升与团队建设管理
AI
CTO如何平衡AI效率提升与团队建设管理

最近,一个反复出现的新闻标题越来越常见:某大型企业一边高调宣扬AI带来的效率提升,一边大规模裁员。 主角轮番更替,背后的逻辑却如出一辙。企业既面临内部削减成本的压力,又需要向外界展示竞争优势。对许多企业而言,这意味着加大AI的使用力度,同时裁减被认为“多余”的员工——尽管目前对AI能力与可靠性的评估

热心网友
05.13
企业ESG治理新路径 合规与伦理实践指南
科技数码
企业ESG治理新路径 合规与伦理实践指南

人工智能深度融入企业ESG治理,成为推动绿色转型的关键引擎。它显著提升了数据管理、风险识别与决策效率,助力企业将可持续发展转化为竞争优势。然而,AI应用也面临数据质量、合规成本及伦理挑战,企业需在利用技术红利的同时,构建以人为本的负责任治理框架。

热心网友
05.13
豆包AI代码审查使用教程与操作步骤详解
AI
豆包AI代码审查使用教程与操作步骤详解

想要高效利用豆包AI进行代码审查,精准发现潜在缺陷、提升代码可维护性与安全性?这需要掌握正确的方法。直接提交一段代码并简单指令“帮我审查”,往往难以获得深度、有价值的反馈。关键在于采用结构化指令与多维度验证策略,以下将详细拆解具体操作步骤。 一、提供清晰上下文与明确审查指令 豆包AI的代码审查质量,

热心网友
05.13
苹果推出AI虚拟培训师革新销售教练模式
科技数码
苹果推出AI虚拟培训师革新销售教练模式

苹果将在其销售培训平台AppleSalesCoach中引入AI虚拟讲师,用于制作个性化培训视频。该功能可根据员工负责的产品线、需提升的技能及母语生成定制内容。所有内容均由内部专家团队策划与审核,确保准确性,且AI生成视频会添加明确标识以区分。

热心网友
05.13
Figma AI图层命名混乱解决方案 利用上下文关联优化命名逻辑
AI
Figma AI图层命名混乱解决方案 利用上下文关联优化命名逻辑

FigmaAI重命名图层时因缺乏上下文导致命名混乱。优化关键在于提供清晰上下文线索:绑定父级Frame语义并启用上下文继承,使子图层命名统一携带前缀;利用变体属性联动,强制AI读取属性定义并将属性名与值注入图层名;对视觉信息贫乏的图层,可在描述字段插入强语义注释作为上下文锚点,从而引。

热心网友
05.13

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

马中新能源论坛探讨产业合作与人才培养新路径
科技数码
马中新能源论坛探讨产业合作与人才培养新路径

5月12日,马来西亚吉隆坡成功举办了一场具有前瞻性的行业盛会——中国-马来西亚电动汽车、电池技术与新能源人才创新发展论坛。来自两国政府部门、领军企业、顶尖高校及国际组织的代表共聚一堂,深入交流了在未来产业协同、清洁能源技术创新及高端人才培养等核心领域的合作路径与机遇。 马来西亚第一副总理兼乡村及区域

热心网友
05.14
智元APC香港观察:具身智能如何成为先进生产力单元
科技数码
智元APC香港观察:具身智能如何成为先进生产力单元

具身智能要迈过的第一道硬门槛,从来都是量产。 过去几年,全球人形机器人行业反复印证了这一点:舞台演示可以很快,工程验证可以很快,视频传播也可以很快。但当一台机器人要从实验室走向产线,再走向客户现场,问题的复杂度会呈指数级上升。 特斯拉的Optimus就是一个典型的参照系。马斯克多次表达过对Optim

热心网友
05.14
AI回答第一个字就暴露真假?识别AI胡说八道的关键信号
科技数码
AI回答第一个字就暴露真假?识别AI胡说八道的关键信号

向朋友问路时,如果对方清楚路线,通常会立刻回答“直走然后左转”。但如果对方并不确定,往往会先停顿一下,犹豫地说“呃……好像是……往那边?”。这个开口前的短暂迟疑,往往比最终给出的答案更能说明问题——对方是否真的知道答案。 近期,美国天普大学计算机与信息科学系的一项研究,正是捕捉到了AI回答问题时类似

热心网友
05.14
浙江大学万能分割学习器技术原理与应用场景详解
科技数码
浙江大学万能分割学习器技术原理与应用场景详解

这项由浙江大学、华南理工大学、南京大学和北京大学联合开展的前沿研究,于2026年4月正式发布,其论文预印本编号为arXiv:2604 24575。 图像分割技术听起来或许有些专业,但它早已深度融入我们的日常生活。无论是智能手机拍摄的背景虚化人像、AI系统在CT影像中精准勾勒病灶轮廓,还是自动驾驶汽车

热心网友
05.14
比亚迪大汉纯电续航1000公里对标56E车型参数曝光
科技数码
比亚迪大汉纯电续航1000公里对标56E车型参数曝光

“大唐”预售热潮尚未平息,“大汉”已蓄势待发,比亚迪王朝系列正以前所未有的攻势,叩响高端市场的大门。 在北京车展引发轰动的比亚迪大唐,预售订单已迅速突破10万台大关,彰显了市场对比亚迪高端产品的强烈期待。而最新信息显示,汉家族即将迎来一位重磅新成员——“大汉”,这款定位D级旗舰的轿车,目标直指20-

热心网友
05.14