Loading...
机构名称:
¥ 1.0

我们提出了一个场景表示形式,我们称之为触觉的辐射场(TARF),它将视觉和触摸带入共享的3D空间。此表示形式可用于估计场景中给定3D位置的视觉和触觉信号。我们从一系列照片和稀疏采样触摸探针中捕获了场景的tarf。我们的方法利用了两个见解:(i)基于常见的触摸传感器建立在普通摄像机上,因此可以使用多视图几何形状中的方法对图像进行注册,并且(ii)在视觉和结构上相似的场景区域具有相同的触觉效果。我们使用这些见解将触摸信号注册到捕获的视觉场景中,并训练有条件的扩散模型,该模型带有从神经辐射场呈现的RGB-D图像,生成其相应的触觉信号。为了评估我们的方法,我们收集了一个TARF的数据集。此数据集比预先持有的现实世界数据集包含更多的触摸样本,并且为每个捕获的触摸信号提供了空间对齐的视觉信号。我们揭示了跨模式生成模型的准确性以及在下游任务上捕获的视觉效果数据的实用性。项目页面:https:// dou- yiming.github.io/tarf。

触觉增强的辐射场 - CVF Open Access

触觉增强的辐射场 -  CVF Open AccessPDF文件第1页

触觉增强的辐射场 -  CVF Open AccessPDF文件第2页

触觉增强的辐射场 -  CVF Open AccessPDF文件第3页

触觉增强的辐射场 -  CVF Open AccessPDF文件第4页

触觉增强的辐射场 -  CVF Open AccessPDF文件第5页

相关文件推荐

2025 年
¥1.0
2022 年
¥1.0
2019 年
¥7.0
2024 年
¥4.0
2002 年
¥3.0
2024 年
¥1.0