对于肢体残疾的人,我们开发了语音和手势控制轮椅。残疾人或老年人可以使用这项技术。该系统使用语音和手势。在语音系统中,我们使用前进、后退、左转、右转、停止等命令。我们识别了语音,成功识别率为 99.03% 到 98.3%,我们还使用手势控制轮椅的移动,为此我们使用加速度计传感器。加速度计直接连接到微控制器,微控制器连接到编码器 IC(HT12E),该 IC 连接到 RF 发射器模块,以无线方式传输数据。电机收到信号后将相应地运行。该系统的目的是通过语音和手势实现轮椅的方向控制。
1234卫理公会工程技术学院,印度海得拉巴,摘要:自闭症支持系统旨在通过创新技术来增强被诊断为自闭症的儿童的学习和情感发展。情绪识别模块检测并从面部表情中分类情绪,提供音频反馈并保持被检测到的情绪的日志。在经常发现遇险的情况下,紧急短信会发送给父母。手势识别模块使儿童能够根据面部表情播放歌曲,从而促进多模式的互动体验。情感游戏模块使儿童参与互动游戏,以促进对情感的认识和理解。本文介绍了系统的架构,设计,实现和测试,以及结果和潜在的未来改进。这项研究证明了利用先进技术支持自闭症儿童的情感和社会发展的潜力,为治疗师,教育者和看护者提供了有前途的工具。通过整合面部识别,手势识别和基于情感的游戏,该系统为情感检测和互动提供了全面的平台。本评论的目的不仅旨在成为对情感识别的未来研究的参考,而且还概述了潜在读者在本主题中所做的工作。索引术语 - 自闭症,面部识别,手势识别,情感游戏,情绪检测,辅助技术
摘要 - 基于表面肌电图(SEMG)的分析的手动运动的准确建模为开发复杂的假体设备和人机界面的开发提供了令人兴奋的机会,从离散的手势识别转向连续运动跟踪。在这项研究中,我们基于轻量级尖峰神经网络(SNN)和在晶格ICE40-ultraplus FPGA上实施了两种实时SEMG加工的解决方案,特别适用于低功率应用。我们首先评估离散手势识别任务中的性能,考虑到参考Ninapro DB5数据集,并在十二个不同的固定手势的分类中占83.17%的准确性。我们还考虑了连续填充力建模的更具挑战性的问题,在独立的扩展和收缩练习中引用了用于填充跟踪的Hyser数据集。评估表明,高达0.875的相关性与地面真正的力。我们的系统利用了SNN的固有效率,并在活动模式下消散11.31 MW,以进行手势识别分类的44.6 µJ,用于强制建模推理的手势识别分类和1.19 µJ。考虑动态功率消费管理和引入空闲时期,对于这些任务,平均功率下降至1.84兆瓦和3.69兆瓦。
摘要:现代硬件和软件开发已导致用户界面从命令行演变为虚拟沉浸式环境的自然用户界面。模仿现实世界交互任务的手势越来越多地取代基于窗口/图标/菜单/指针 (WIMP) 或触摸隐喻的传统二维界面。因此,本文的目的是调查最先进的人机交互 (HCI) 技术,重点关注三维交互这一特殊领域。这包括当前可用的交互设备的概述、它们的使用应用以及手势设计和识别的底层方法。重点是基于 Leap Motion 控制器 (LMC) 的界面以及相应的手势设计和识别方法。此外,还回顾了所提出的自然用户界面的评估方法。
B.,Prevost, S. 和 Stone, M. (1994)。动画对话:基于规则的多个对话代理的面部表情、手势和口语语调生成。计算机图形学 (SIGGRAPH '94 会议论文集),28(4):413-420。
Rymec,Ballari Karnataka India隶属于Karnataka India摘要VTU Belagavi摘要:手势是指人体部位的表现力运动,其中具有特定信息要传达给接收者。手势识别是指理解人体部分运动的意义,这涉及手,脸,头部,手臂或身体的运动。人类手势是人们之间非语言互动的一种手段。它们的范围从使用我们的手指向和移动对象的简单动作到表达我们感受并允许我们与他人交流的更复杂的对象。手势在我们的交流中根深蒂固。人类的显着能力是手势识别。另一方面,计算机在人类的发展中发挥了令人难以置信的作用。为在用户和计算机系统之间开发智能和自然接口而付出了巨大的努力。通过语音识别进行了一次长期尝试人类计算机互动(HCI),并且数十年来一直是研究的话题。在语音识别中取得了巨大进展,并且已经部署了一些商业上成功的语音界面。然而,近年来,只是想在HCI中引入其他人类到人类的形式模式,人们一直在增加兴趣。这包括基于人眼运动和眨眼手势的盖子的一类技术。首先尝试解决此问题导致了直接测量手和/或手臂关节角度和空间位置的机械设备。该组最好由所谓的基于手套的设备表示。第二种类型包括非侵入性眼眨眼手势技术,这些技术不包含手上任何设备。图像处理用于此类方法。我们的努力是开发这样的系统,该系统将与计算机通信以控制另一个系统。
IVI • 占用监控系统 (OMS) • 驾驶员监控系统 (DMS) • 环绕感知 • 音频命令与控制零售 • 访客/面部/手势识别 • 物体/人员检测与计数 • 条形码解码 • 空货架检测 • 停留时间
摘要 - 本文概述了使用语音、手势和人机界面 (HCI) 控制的机器人遥控系统。该系统由三个基本软件组件组成,包括 (a) 从多个输入获取和识别控制命令、(b) 客户端-服务器网络通信和 (c) 机器人及其手臂的命令融合和执行。控制命令识别的输入来自 (1) 有线或无线麦克风、(2) 安装在人臂上的有线方向传感器和 (3) HCI 设备,例如鼠标、键盘或带有控制命令序列的文本文件。手势命令集基于美国海军用于在地面导航飞机的词典。多个命令的融合通过 (a) 分析时间延迟和 (b) 为命令和发出这些命令的客户端分配不同的优先级来执行。在机器人执行选定命令之前,会考虑一致和冲突的命令。对于紧急控制,视频信号会发送到监控站。
抽象机器人化身作为远程通信的一种手段吸引了注意力。使用机器人头像在另一个位置与合作伙伴一起工作并与合作伙伴进行交流所需的要素之一是指向信息的运输,以共享对象和其他信息的位置。但是,尚未完全评估它在多大程度上被机器人化身(被视为其自身自我的自我)指向的手势,能够传达空间信息。在这项研究中,我们开发了一个机器人头像,该化身意识到了通信的远程接种,并评估了可以通过评估实验传达机器人头像指向的信息的程度。结果表明,使用类人动物通信机器人的机器人头像的指向手势传达的信息通常被传达有效。在机器人头像的情况下可以编程以指向正确的方向,发现信息在某种程度上通过手指向而无需使用夹具手指来传达信息。
在人工智能和计算机视觉中制造系统的理解系统是旨在使计算机能够理解和理解周围世界的能力的技术。这可能涉及使用各种传感器和相机来捕获有关环境的信息,并使用机器学习算法来分析和解释这些数据。例如,在计算机视觉领域中,这可能涉及使用AI分析图像和视频以识别对象,场景和活动。有意义制作系统的目标是使网络和计算机能够理解他们从环境中收集的信息的上下文和含义,以做出更明智的决策并采取适当的行动。During the sessions, we will explore the following topics, related to the sociocultural aspects of computer vision and interaction: - experimental capture (historical overview) - digital signal processing - computer vision (recognition, tracking, estimation) - pattern & gesture recognition - machine learning (regression, classification) - neural networks (adversarial systems, transfer learning) - generative design, artificial creativity - predictive systems