随着姿势感知技术的出现,人体姿势有可能取代和增强现有的输入方式,如触觉和语音。这种范式转变得益于传感技术的进步,这使得跟踪用户的身体运动变得更容易、更便宜。例如,可以使用一系列 RGB 图像 [4]、深度图像 [20](例如,Microsoft Kinect)和 IMU 数据 [13, 26] 来感知身体姿势。在人机交互(HCI)文献中,基于身体的交互的常见用例是运动引导:全身运动训练 [2, 12, 25];学习体育活动,如舞蹈 [6]、武术 [7] 和体育 [22];手势指导 [21] 和学习 [8];与公共展示的互动 [1, 27];空间引导[10,11]和物理治疗[23]。由于提出的系统和方法众多,涉及的身体部位、使用的方式、技术设置和评估指标各不相同,因此很难在各种方法之间得出结论。例如,虽然Anderson等人[2]提出的YouMove和Tang等人[23]提出的Physio@Home都采用增强现实来引导运动,但它们使用不同的可视化进行增强反馈,从不同视角捕捉用户并训练/引导不同的身体部位(YouMove中的全身运动和Physio@Home中的肩部运动)。虽然人机交互中的动作和姿势引导系统经常用于体育和体育活动,但交互技术可直接应用于辅助环境,例如用于培训工人完成制造任务[5]。由于所使用的姿势不同,目前无法在不同方法和交互技术之间得出结论。在本文中,我们引入了 APS(APS 姿势集),这是一个 3D 人体姿势数据集。APS 旨在作为姿势训练和系统评估的基线。HCI 社区已经建立了预定义的标准评估基准的好处。例如,MacKenzie 和 Soukoreff [17] 为