Loading...
机构名称:
¥ 1.0

摘要 - 在3D中了解我们世界的动态对于机器人应用的性能和稳健性至关重要。尽管最近的进度已与视觉模型和体积渲染结合起来提供语义3D表示形式,但大型模型的推理时间既不是实时机器人操作的所需更新速度。在这项工作中,我们建议将“对象”注入基于3D高斯人的语义表示[1]。具有相同语义标签的高斯人可以一起初始化和更新,从而导致快速更新,以响应机器人和对象运动。所有必要的语义信息都是从验证的基础模型的第一步中提取的,从而规避了大型模型的推理瓶颈,但仍获取语义信息。只有三个相机视图,我们提出的表示形式可以实时捕获30 Hz的动态场景,这对于大多数操纵任务就足够了。通过基于我们的对象感知的高斯分裂来利用表示形式,我们能够求解语言条件的动态握把,为此,机器人抓取了开放词汇查询指定的动态移动对象。我们还使用该表示形式通过行为克隆来训练视觉运动策略,并表明该策略通过预审计的编码者获得了基于图像的策略的可比结果。视频https://object-aware-gaussian.github.io

机器人操纵的对象意识到的高斯裂片

机器人操纵的对象意识到的高斯裂片PDF文件第1页

机器人操纵的对象意识到的高斯裂片PDF文件第2页

机器人操纵的对象意识到的高斯裂片PDF文件第3页

机器人操纵的对象意识到的高斯裂片PDF文件第4页

相关文件推荐

2024 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2018 年
¥2.0
2024 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0