摘要。随着科学和技术的快速发展,人力计算机的互动已成为一个引起极大兴趣的领域。深度学习是人工智能的重要技术,近年来在人类计算机互动领域取得了重大进展。本论文专门研究在手势识别和运动控制的应用中对人类计算机相互作用中深度学习技术的研究。首先,引入了深度学习的基本原理和手势识别和运动控制的背景知识。然后,它讨论了该领域深度学习模型的优势以及当前的挑战。根据理论分析,本文提出了基于深度学习技术的手势识别和运动控制方法。通过实验证明了该方法的有效性和实用性。研究结果表明,深度学习技术在手势识别和行动控制中具有巨大的潜力,这为人类计算机交互领域带来了新的可能性,并且在促进人类计算机交互技术的发展方面具有重要意义。
语言是多模式,包含语音和手势。手势是一种丰富日常交流的视觉语言形式。尽管手势与语音同时发生,但它们经常传达独特的信息,特别是关于视觉空间描述和行动(Aribali,2005; Feyereisen&Havard,1999; Hostetter&Alibali,2019; Melinger&Levelt,2004)。手势有意义地描绘了视觉世界的各个方面(例如,物体的大小,形状或运动)称为标志性手势(McNeill,1992)。语音和手势在语义和时间上都是相关的;然而,标志性手势的发作经常在语音中进行语义上的影响(Fritz,Kita,Littlemore和Krott,2021; Morrel-Samuels&Krauss,1992; Ter Bekke,Drijvers,&Holler,&Holler,&Holler,2020)。词汇效果是与手势含义最紧密相关的单词。例如,在句子中,“他拿起这本书”,搭配举起的手势,“捡起”将被视为词汇效果。在对话数据的语料库中,人们发现,手势运动的开始是在词汇范围前发生的672毫秒,并且手势运动的有意义的中风开始发生215毫秒之前,发生在词汇效果之前(Ter Bekke等人,2020年)。为了理解语音传语信号,听众必须在多模式语言处理过程中整合语音和姿态的时间和语义特征。许多研究都使用眼神跟踪来检查语言处理,因为语音信号实时展开。但是,对多模式处理的研究受到了较少的关注。使用改编的视觉世界范式,我们研究了听众如何使用手势中的信息来解决语音中的临时参考歧义。至关重要的是,我们还检查了中度重度创伤性脑损伤(TBI)的个体是否会破坏这一过程,从而促进了我们对认知沟通障碍对丰富多模式交流环境中语音障碍对言语传语整合的影响的理解。
摘要。自 2015 年以来,商业手势界面扩大了研究人员和艺术家使用新型肌电图 (EMG) 生物特征数据的范围。EMG 数据可测量肌肉幅度,并使我们能够通过与数字媒体进行自然手势交互来增强人机交互 (HCI)。虚拟现实 (VR) 是一种沉浸式技术,能够模拟现实世界及其抽象。然而,当前的商业 VR 技术不具备处理和使用生物特征信息的能力。与当前商业 VR 设备中使用光学传感器进行手势识别相比,在 VR 中使用生物特征识别技术可以更好地描述手势细节并使用复杂的自定义手势,例如器乐演奏中的手势。然而,EMG 数据很复杂,必须使用机器学习来使用它。本研究使用 Myo 臂带对 Wekinator 中的四种自定义手势进行分类,并观察它们的预测准确性和表示(包括或省略信号开始)以在 VR 中创作音乐。结果表明,根据手势表示类型,特定的回归和分类模型在对 VR 中高级音乐 HCI 的四种音乐手势进行分类时最为准确。我们应用并记录了我们的结果,表明 EMG 生物识别技术有望成为未来 VR 中交互式音乐创作系统的良方。
摘要。使用技术资源来开发医院环境中的关键任务,例如手术室,必须仔细完成,例如,在使用键盘或鼠标控制的设备时,避免通过触摸污染材料。从这个意义上讲,可以通过手势控制的设备作为克服此问题的适当方法。尽管有明显的好处,但这种类型的互动带来了一些挑战,例如需要适合执行任务的手势的词汇,此外,还有一种手势词汇,可以被环境中存在的传感器所识别。在这项工作中,我们描述了使用LEAP运动传感器来解决手势词汇识别任务的结果,旨在将其与Maring'a区域大学医院紧急和紧急部门使用的系统相结合。为此,我们定义了一个手势 - 示例和一组由指尖距离手掌中心的距离组成的特征。之后,我们创建了一个手势数据集,该数据集由10个不同的手势组成,共有20,000个样本。创建的数据库也将作为对这项工作的贡献。对于分类,我们评估了许多不同的分类。实验表明,可以使用拟议的策略来实现有希望的结果:通过优化贝叶斯搜索的超参数优化,并将模型与投票分类器相结合,我们实现了95.8个关键字的准确性:Leap Motion Sensor·手势识别·人体计算机界面·人体界面·信息系统。
JSPM的Bhivarabai Sawant技术与研究研究所Wagholi摘要:手写的手势识别是人工智能(AI)领域(AI)和机器学习领域快速增长的领域,为教育,人类计算机互动和数字笔记提供了很大的使用机会。本文概述了AI-ML模型中用于识别和解释手写手势的方法和策略,并特别强调了数学符号,数字和相关手势。此外,本文探讨了深度学习技术如何影响手势识别的准确性和分类。此外,它旨在帮助推进更准确,更优化的手写识别系统,最终使在学术和专业环境中的应用中受益。索引术语:手写手势识别,数学符号解释,AI-ML技术,深度学习,实时手写识别。
当系统根据用户自然的手势进行操作时,易用性会得到优化。多点触控技术就是这种情况,该技术用于触摸屏设备或语音识别。多点触控允许屏幕或其他表面在用户触摸时启用系统的操作。10 触摸图标进行选择或说出命令都是相当自然的手势。但是,像使用四根手指更改屏幕视图这样的手势(例如 Apple 产品)可能不那么自然。11 这是 NUI 的一个缺点;有时它们要求用户快速从新手变成专家并学习新的手势才能操作系统。由于这个潜在的缺点,NUI 开发人员必须牢记潜在用户的能力和现有技能,并避免在设计中加入无意的人为手势。
手势作为一种先进的交互方式,在人机交互中得到了广泛的应用。本文提出了一种基于机械能量消耗(MEE)和机械效率(ME)的舒适度评价模型来预测手势的舒适度。该舒适度评价模型基于肌肉和关节的数据,考虑了19块肌肉和7个自由度,能够模拟静态和动态手势的MEE和ME。因此,可以通过对MEE和ME进行归一化并赋予不同的决策权重来计算舒适度分数(CS)。与传统的基于测量的舒适度预测方法相比,一方面,该舒适度评价模型可以在不使用肌电图(EMG)或其他测量设备的情况下为手势的舒适度提供量化值;另一方面,从人机工程学的角度来看,结果提供了一个直观的指标来预测哪种动作对关节和肌肉来说更具有疲劳或损伤的风险。通过实验验证了所提模型的有效性。将本文提出的舒适度评价模型与基于运动范围(ROM)的模型以及基于运动和手势评估方法(MMGA)的模型进行比较,发现由于忽略了运动过程中的动态手势和相对运动学特性,模型的预测结果略有不同。
对于肢体残疾的人,我们开发了语音和手势控制轮椅。残疾人或老年人可以使用这项技术。该系统使用语音和手势。在语音系统中,我们使用前进、后退、左转、右转、停止等命令。我们识别了语音,成功识别率为 99.03% 到 98.3%,我们还使用手势控制轮椅的移动,为此我们使用加速度计传感器。加速度计直接连接到微控制器,微控制器连接到编码器 IC(HT12E),该 IC 连接到 RF 发射器模块,以无线方式传输数据。电机收到信号后将相应地运行。该系统的目的是通过语音和手势实现轮椅的方向控制。
1 美国明尼苏达州罗切斯特市梅奥诊所生理学和生物医学工程系 2 荷兰乌得勒支大学医学中心乌得勒支大学脑中心神经内科和神经外科系。 3 美国明尼苏达州罗切斯特市梅奥诊所神经外科系 * 通讯作者。电子邮件:max.vandenboom@mayo.edu、hermes.dora@mayo.edu