详细内容或原文请订阅后点击阅览
计算机学习阅读肢体语言和手势(+视频)
卡内基梅隆大学机器人研究所 (CMU RI) 的科学家正在开发一种计算机系统,该系统可以读取肢体语言直至手指的位置。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)卡内基梅隆大学机器人研究所 (CMU RI) 的科学家正在开发一种计算机系统,该系统可以读取肢体语言直至手指的位置。
新流程可以实时运行,甚至可以在人群中运行,为人与机器以更自然的方式进行交互提供了可能性。
目前,与计算机的交互是通过键盘、鼠标和触摸屏进行的。虽然也使用了语音识别。但当人们相互交流时,不仅仅使用语言。任何与孩子互动过的人都知道,人类交流的一半是通过手语进行的,如果不考虑这一点,互动就会变得困难和复杂。
但是让计算机识别人体姿势并不是一件容易的事。通常,微妙的手势涉及细节,例如可能被物体或其他人遮挡的各个手指的位置。此外,虽然有用于识别面部表情和身体姿势的大型数据库,但没有关于手势和手部位置的数据。
由卡耐基梅隆大学机器人学高级助理教授 Yasser Sheikh 领导的团队结合了多种方法来解决这个问题。一种方法是让几个研究生站在镜头前,摆出数千种不同的姿势和手势,从而简单地向计算机提供更多数据。
另一种方法涉及改变计算机通常识别姿势的方式。计算机不是观察整个人并处理他的手势,而是处理单独的手臂、腿和脸部,将它们与人联系起来。这对于观看大量人群特别有用。
第三个特点是使用 Panoptic CMU 工作室,这是一个两层楼的圆顶,配有 500 个内置摄像机。这使得计算机能够同时检查大量受试者从数百个不同角度的姿势。