首页 游戏 软件 资讯 排行榜 专题
首页
AI
它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破

它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破

热心网友
86
转载
2026-03-26


免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

新智元报道

编辑:犀牛

【新智元导读】从「被动感知」到「主动预测」,首个视触觉世界模型让机器人真正学会「理解接触」。

想象这样一个场景:你正在擦桌子、削水果,或者插拔一个精密零件。

这些动作对人类来说轻而易举,然而对于机器人来说,这些看似简单的操作却是一道难以跨越的技术鸿沟。

近期,它石智航联合新加坡国立大学、复旦大学、中科院自动化所、清华大学、中关村学院以及北京航空航天大学六大顶尖机构,推出OmniVTA视触觉操作框架和OmniViTac大规模视触觉数据集并发表相关论文,让机器人实现从被动感知,到对触觉进行主动预测和闭环精准控制,迈出灵巧操作的关键一步。


论文链接:https://arxiv.org/pdf/2603.19201

项目主页:https://mrsecant.github.io/OmniVTA/

数据集链接:https://huggingface.co/datasets/tars-robotics/OmniVitac

当前,业内深陷于一个反直觉困境:即便触觉传感器在机器人领域已经广泛应用,整个行业却深陷「感知更多、做得更差」的困境。

机器人明明「摸得到」,却依然「不会用」。

为什么给机器人提供额外的触觉感知,反而可能让它表现更差?

答案在于,当前主流方案对触觉本质存在根本性误解。

机器人操作领域长期缺乏对接触动态的建模和对触觉信息的有效利用。

当前主流方案仅将视觉与触觉特征简单拼接后输入策略网络。这种方式看似合理,实际上却忽视了触觉的核心特征。

相较于具备全局语义与连续观测能力的视觉,触觉信号高度局部且由接触事件驱动,无法提供全局感知,难以支撑长时序规划。

更关键的是,接触本质上是一个随时间演化的动态过程。

擦拭、削皮、插接、拧紧等操作,都是「接触状态随时间不断变化」的过程。

然而,现有方法通常仅利用当前或历史几帧触觉观测,缺乏对「接触如何随时间演化」的显式建模。

结果是触觉往往只被用于简单的接触检测或视觉遮挡补偿,而无法真正参与对接触过程的预测与决策。

同时高频触觉数据缺失也让模型难以学习真实接触规律,操作稳定性与泛化性严重不足。

人类真实行为启发

「预测+反馈」协同机制

如何破解这一困局?答案或许就藏在人类自身的神经机制中。

神经科学研究表明,人类在进行接触操作时,依赖的是一套「预测+反馈」的协同机制:大脑一方面通过前向模型提前预测动作将带来的感觉变化,另一方面通过实时感觉反馈进行快速修正,抵消误差和扰动。

正是这种「先预测再修正」的机制,让人类能够在不确定的环境中,依然完成稳定而灵巧的接触操作。


「预测 + 反馈」的协同机制。图源:Motor prediction[1]

本次它石智航联合六大顶尖机构,从数据底座与技术框架双向攻坚。在数据层面上,团队发布了OmniViTac大规模视触觉数据集,如下图所示,为后续模型训练筑牢基础。

这是迄今为止规模最大、质量最高的视触觉操作数据集之一,目前已收录2万余条操作轨迹,覆盖近百类任务和百余种物体,并将接触模式系统性分为擦拭、削皮、切割、抓取、装配以及手内调整六类,在数据采集过程中严格保证视觉、触觉与动作的高精度同步,并保留了原始传感器频率。

该数据集也同步受到了业界认可,获得由魔搭社区(ModelScope)主办的「EAI-2025年度10大数据集」奖项。



OmniVitac数据集

依托 OmniViTac 的多模态数据支持,它石创新提出了 OmniVTA——一种以世界模型为核心的视触觉操作框架。

该方法的核心思路在于从「被动感知触觉」转向「主动预测触觉」:机器人不仅能够感知当前触觉信号,还实现了建模并预测未来触觉的演化过程,并以此指导动作规划与闭环调整。

在系统设计上,OmniVTA 采用慢–快分层控制结构,如下图所示:慢系统基于视觉–触觉世界模型预测未来触觉表征并生成动作序列,快系统则利用预测触觉与实时触觉反馈进行反射式高频控制,从而实现稳定、鲁棒且精细的接触操作。


OmniVTA系统图

在此基础上, OmniVTA通过四个关键模块协同构建统一的闭环控制体系,使机器人具备「预测触觉—理解接触—修正动作」的能力,从而重塑其在复杂接触场景中的操作表现:

TactileVAE:通过时空联合编码与隐式函数解码,将高频、稠密的触觉3D形变压缩为低维连续潜变量表示,如下图所示。

该模块不仅在空间上保留细粒度接触结构(如剪切、法向形变等),还在时间上建模触觉动态变化,从而有效刻画接触过程的演化轨迹。

在显著降低数据维度与计算开销的同时,为后续预测与控制提可泛化的触觉表征,使机器人能够高效理解当前接触状态并快速响应环境变化。


TactileVAE网络结构图

视触觉世界模型(预测模块):基于双流扩散生成架构,在共享条件约束下联合建模视觉与触觉的时序演化关系。

视觉分支提供全局语义与几何先验,触觉分支聚焦局部接触动态,两者在潜空间中协同对齐,从而实现对未来触觉信号的高质量预测。

通过显式建模「接触发生前—接触发生中—接触演化后」的动态过程,该模块使机器人能够提前预判接触趋势(如即将发生的接触、接触强度变化或滑动风险),为动作规划提供前瞻性信息支撑。

自适应融合策略(决策模块):引入 Latent Tactile Differential(LTD)编码器,对当前触觉与预测触觉之间的差异进行显式建模,从而提取接触动态变化的关键信号。

在此基础上,结合门控(gating)机制对视觉与触觉模态进行动态加权,使策略能够根据接触阶段自适应调整感知依赖:在无接触或远接触阶段侧重视觉全局信息,在接触发生及演化阶段增强触觉主导作用。

该模块有效避免了简单特征拼接带来的信息冲突问题,使动作决策更加精确且具备情境适应性。


OmniVTA慢策略:视触觉世界模型+自适应融合策略

反射式触觉控制器(执行模块):基于预测触觉与实时触觉反馈,在 60 Hz 高频下输出单步修正动作,对慢系统生成的动作序列进行连续闭环补偿。

该控制器通过建模触觉误差(预测–观测差异)实现快速响应,可在接触扰动、物体偏移或摩擦变化等情况下即时修正执行轨迹,从而显著提升操作稳定性与精度。

其引入使系统具备类似人类「触觉反射」的能力,能够有效弥补低频规划带来的滞后性。


基于触觉特征的反射式控制器

实操验证

从「机械记忆」到「理解接触」

实验数据表明,OmniVTA视触觉操作框架在不同物体、不同接触模式下均取得了最优性能。在位置变化、工具变化和外界扰动等情境中,展现出了远超传统方法的鲁棒性和泛化能力。



操作过程中实时扰动-恢复接触

更具深远意义的是,模型学习到了可迁移的接触动态规律。

如下图所示,模型能根据预测的接触状态自适应调整视觉与触觉的权重,并在不同物体和工具下保持稳定表现。

这表明机器人正在从「执行动作」走向「理解物理接触」,逐步具备类似人类的预测与反馈协同能力。


门控机制效果:触觉和视觉权重随操作过程的变化

可以看到,OmniVTA展示了一条清晰的技术路径:以「世界模型」为核心,以预测为先导、反馈为保障,最终使机器人能够真正胜任精密装配、家居清洁与食材备制等工业生产与日常生活中不可或缺的接触密集型(contact-rich)任务。

本次它石联合多所顶尖科研机构发布的OmniVTA框架,不仅在学术研究方面有所突破,更具有深远的产业应用落地价值,将具身智能「干活」的能力提升至可落地、可泛化、可规模化的全新高度。

参考资料:

[1] Wolpert, Daniel M., and J. Randall Flanagan. 「Motor prediction.」 Current biology 11.18 (2001): R729-R732.

来源:https://www.163.com/dy/article/KOUG1QSJ0511ABV6.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

小米仿生机械手升级,拥全掌感知与排汗功能
科技数码
小米仿生机械手升级,拥全掌感知与排汗功能

IT之家 3 月 27 日消息,小米最新今年 3 月初宣布,在汽车工厂自攻螺母上件工站,小米机器人已经做到 3 小时持续作业,双侧同时安装成功率 90 2%,并满足产线 76 秒的节拍。为了进一步提

热心网友
03.27
它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破
AI
它石智航发布OmniVTA模型:从被动感知到理解接触的视觉新突破

新智元报道编辑:犀牛【新智元导读】从「被动感知」到「主动预测」,首个视触觉世界模型让机器人真正学会「理解接触」。想象这样一个场景:你正在擦桌子、削水果,或者插拔一个精密零件。这些动作对人类来说轻而易

热心网友
03.26
机器人ChatGPT时刻何时到来?产业界分歧观察
科技数码
机器人ChatGPT时刻何时到来?产业界分歧观察

大约从两三年前开始,具身智能行业便热衷于预测何时能迎来“ChatGPT时刻”。时至今日,产业界依然对此乐此不疲。人们借用“ChatGPT时刻”的类比,来描述机器人智能水平完成质的飞跃。按照宇树科技创

热心网友
03.25
机器人如何从视觉感知迈向触觉智能新阶段
科技数码
机器人如何从视觉感知迈向触觉智能新阶段

在强光环境下拿起一个玻璃杯,这个动作对人类来说几近本能,但对机器人而言,“看到玻璃杯”和“拿起玻璃杯”的过程却充满挑战。因为玻璃过于干净透明,即便是人类或者动物,不仔细辨认有时也会一头撞上去。对依赖

热心网友
03.01
HTC行走平台专利:吹风结构提升VR/AR视觉与触觉协同体验
科技数码
HTC行走平台专利:吹风结构提升VR/AR视觉与触觉协同体验

国家知识产权局信息显示,广东全影汇信息科技有限公司申请一项名为“一种HTC行走平台配合吹风结构”的专利,公开号CN121576504A,申请日期为2025年11月。专利摘要显示,本发明涉及HTC技术

热心网友
02.28

最新APP

你比我猜
你比我猜
休闲益智 03-26
锦绣商铺
锦绣商铺
模拟经营 03-26
儿童画画
儿童画画
休闲益智 03-25
疯狂猜词
疯狂猜词
休闲益智 03-25
诸神皇冠
诸神皇冠
棋牌策略 03-25

热门推荐

猎豹浏览器免安装网页版:在线云端使用入口与教程
电脑教程
猎豹浏览器免安装网页版:在线云端使用入口与教程

猎豹浏览器免安装网页版入口是https: web lemur-browser com,具备界面简洁响应迅速、多端同步无缝衔接、安全防护层级丰富、文档处理能力突出、资源兼容性广泛覆

热心网友
03.27
昆仑万维发布三大世界第一梯队AI模型
科技数码
昆仑万维发布三大世界第一梯队AI模型

据昆仑万维集团消息,3月27日下午,昆仑万维(300418 SZ)旗下天工AI顺利举办“世界模型前沿技术与天工AIGC全家桶大模型生态”专场发布会,携Matrix-Game 3 0、SkyReels

热心网友
03.27
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻
科技数码
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻

本报(chinatimes net cn)记者石飞月 北京报道大模型未来会走向哪里?OpenClaw的爆火似乎为全行业指明了一个方向,但接踵而至的舆论质疑,又让这个答案变得扑朔迷离。3月27日,在2

热心网友
03.27
Anthropic核心模型意外泄露,网络安全股面临冲击风险
科技数码
Anthropic核心模型意外泄露,网络安全股面临冲击风险

Anthropic一款尚未发布的新AI模型因数据泄露意外曝光,引发市场对AI颠覆网络安全行业的担忧再度升温,网络安全板块股价周五盘前全线下挫。据《财富》杂志报道,Anthropic正在开发并已开始向

热心网友
03.27
Token经济到来,解析互联网大厂的布局与冷思考
科技数码
Token经济到来,解析互联网大厂的布局与冷思考

3月初,腾讯在深圳总部楼下设立“龙虾站”,引发千人排队尝鲜。OpenClaw掀起的“全民养虾”热潮,在短短一个月内让更多人看到了AI Agent深入业务场景的价值,随即推动Token调用量大规模增长

热心网友
03.27