全球首个跨实体视觉-触觉多模态大规模数据集“白虎-VTouch”惊艳亮相

随着机器人技术向“具身智能”迈出关键一步,让冰冷的机械臂也能拥有媲美人类的细腻触感,正成为突破精细操作瓶颈的核心。

日前,我国在机器人感知领域取得一项重要进展。2026年1月26日,国地中心携手未泰机器人,共同发布了全球首个、也是目前规模最大的跨体态视觉-触觉传感器多模态数据集——“百谷-VTouch”。这一数据集的出现,不仅填补了机器人视觉-触觉交互的空白,更为全球机器人开发者提供了一个极具价值的“数字矿藏”。

image.png

规模冠绝全球:60000分钟的“真实触感”

与以往零散、片面的实验数据不同,“百谷-VTouch”在规模和完整性上实现了质的飞跃:

  • 海量数据体量: 该数据集总时长超过60000分钟,包含了约9072万对真实的物体接触样本。
  • 全面信息覆盖: 集成了触觉传感器数据、RGB-D深度数据以及关节位姿数据,实现了多模态信息的深度对齐。
  • 高精度记录: 其传感器支持640×480分辨率与120Hz的高刷新率,能够捕捉接触过程中极其细微的物理变化。

跨体态范式:从“擎天”到“掌上终端”

本次数据集最核心的突破在于其“跨体态”的采集特性。它打破了单一设备的“数据孤岛”,覆盖了多种主流机器人形态:

  • 人形机器人: 以全尺寸人形机器人“擎天”为代表的复杂动态结构。
  • 轮腿式机器人: 包括D-Wheel等灵活的轮臂复合型机器人。
  • 智能终端: 甚至涵盖了手持式皮卡夹爪等智能终端设备。

这种跨体态的覆盖意味着,开发者训练出的算法将拥有更强的通用性,使得不同形态的机器人能够快速“习得”相似的感知能力。

“矩阵式”任务:让机器人融入日常生活

为了让AI真正解决现实世界的问题,“百谷-VTouch”围绕四个实际应用场景,构建了一个极其系统化的任务矩阵:

  • 家居与家政服务: 处理家庭环境中复杂的交互操作。
  • 餐厅服务: 精准抓取易碎、柔软物体。
  • 工业制造: 实现精密装配过程中的力控调整。
  • 特种作业: 在极端或特殊环境下执行高精度操作。

该任务结构涵盖了超过100项原子技能和260多项接触密集型任务。研究数据显示,引入视觉-触觉感知后,68%的任务获得了更完整、连续的接触状态描述,这对于机器人实现失效恢复和精确力控至关重要。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2026年 1月 26日 下午12:31
下一篇 2026年 1月 26日 下午1:55

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!