摘要: - 根据国际自动驾驶技术标准,如果要在道路上驾驶自动驾驶车辆,它们必须具有承认交通警察手势的功能。目前,交通警察的手势识别方法主要分为三类,即基于生物电信号,基于传感器的识别和基于机器视觉的识别的识别。本文主要关注传统机器视觉技术在处理动态的交通警察手势时很容易忽略关键坐标和时间功能的情况。本论文提出了一个多层LSTM模型,该模型整合了连续的子中限角度和交通警察的注意力模型。基于MediaPipe,在统一关键点之后,接受融合角度信息的模型的精度比未经角度信息融合的训练的模型更高,并且使用33个关键点训练的模型及其MediaPipe的角度信息比501关键点及其角度信息更准确。最后,根据本文提出的模型,对中国交通警察的手势数据集取得了良好的测试结果。
本文展示了使用 Mediapipe 框架实现的 AI 个性化健身房姿势矫正器。如今,健身房和锻炼越来越受欢迎,考虑到这一点,保持正确的姿势对于避免受伤和最大限度地提高锻炼效果至关重要。但是,在没有任何帮助或反馈的情况下保持正确的姿势对任何人来说都是一项挑战。为了解决这个问题,我们的项目提供了一种解决方案,将人工智能和计算机视觉技术应用到现实世界的解决方案中。计算机视觉等技术将对锻炼姿势提供实时反馈。我们将使用 Mediapipe 库分析身体关键点,我们的系统可以准确检测和评估与正确姿势的偏差,根据每个人独特的体格提供个性化的矫正指导。通过大规模测试和与现有方法的比较来评估所提出系统的效率,从而有望通过推广更安全、更有效的锻炼来彻底改变健身行业。
1 计算机工程系,Ramrao Adik 技术学院,DY Patil 等同于大学,新孟买 摘要。锻炼在我们的日常生活中非常重要,尤其是当患者处于康复过程中并需要加快身体恢复时。因此,锻炼在我们的生活中变得更加重要。它们为提高人类能力和延长寿命提供了基石。人工智能和图像处理可用于改善和补充锻炼过程,而无需专业监督。基于软件的运动跟踪器可以跟踪您所做的所有锻炼,并在您锻炼时为您提供有关姿势的反馈。通过计算数据和分析,锻炼的有益效率将提高。MediaPipe 框架可用于此应用程序;在这个机器学习模型中,在人体姿势的几个关节处绘制点,并跟踪、存储和分析运动。这种对身体跟踪的详细分析可用于实现可以跟踪注册个人的医疗锻炼的应用程序。该软件可以进一步改进,以便将注册用户映射到经过验证的真实医生,该医生可以使用数据库访问映射患者的诊断报告和锻炼历史。关键词:MediaPipe、BlazePose、BlazeFace、二头肌弯举。
技术,Karnataka 2 BE Scholar,CSE,部门,Shri Dharmasthala Manjunatheshwara技术学院,卡纳塔克邦摘要 - 该研究提出了一种基于手势的交互系统,旨在使用OpenCV和MediaPipe实时控制。此系统使用手势来提供一种直观且不接触的方式来与计算机进行交互,从而为与传统输入设备(如鼠标或键盘等传统输入设备)挣扎的人相互访问。使用单个网络摄像头,该系统连续捕获并监视手动移动。这些运动是通过模式识别算法处理的,以准确识别特定的手势,每个手势都与各种计算机操作相对应,包括鼠标运动,咔嗒声和滚动。该系统是针对用户友好性和效率进行设计的,使用户可以在无人接触的情况下轻松浏览其计算机屏幕。研究的结果强调了使用手势来实现基本计算机控制任务的实用性和有效性,在日常和专业计算方案中提出了一种有希望的无提交互方法。索引术语 - 手势识别,OpenCV,MediaPipe,小鼠控制,人类计算机相互作用。
摘要计算机应用程序的进步已经越来越促进了日常任务,最近的创新集中在语音助手和虚拟输入设备上。该技术对具有移动性挑战的个体或直接手动计算机交互的情况有限。利用计算机视觉和人工智能,这些应用程序可以解释视觉数据,例如人类运动,并决定执行相应的命令。本研究结合了语音助手,虚拟鼠标和虚拟键盘,以增强可访问性和可用性,特别是对于身体残疾人或喜欢替代输入方法的人。使用Python,MediaPipe和OpenCV,该应用程序有效地处理和解释用户手势,提供响应迅速,有效的计算体验。MediaPipe的功能特别有助于模型的精确度,优化了对AI驱动任务的手动跟踪和手势识别。用户可以通过各种手势来控制计算机光标,使用彩色盖或磁带在虚拟键盘上键入,并执行诸如左键单击和拖动项目之类的基本操作。这种集成的解决方案旨在提高生产率,使计算机更容易访问并增强用户的整体数字体验。在此类应用中,AI和计算机视觉的融合继续推动了创新和包容性的计算解决方案,并承诺在人类计算机互动中具有更大的可访问性和便利性的未来。
展示人工智能 (AI) 能力的挑战之一是找到有效的方式来以切实的方式展示其能力。在本文中,我们使用 Unitree A1 四足机器人展示了一个基于视觉的 AI 演示器。该演示器旨在供苏黎世应用科技大学人工智能中心 (CAI) 使用,以在现实环境中展示 AI 的能力,例如展览。为了实现这一点,我们开发了一个应用程序,允许机器人响应四种特定的手势。该软件从机器人的集成摄像头接收实时图像,并利用 MediaPipe 框架进行手部跟踪和界标点生成,这些界标点实时显示在远程 PC 上。我们根据 3768 个手势记录训练的逻辑回归模型随后会检测站在机器人前面的用户做出的手势。该模型与机器人的系统进行通信,允许通过用户界面控制其检测和姿势。在我们的实验室测试中,机器人展示了每个手势的平均准确率为 91%。然而,我们发现在强光或弱光环境中,机器人的性能不太可靠,准确率仅为 70%。为了提高机器人在这些条件下的性能,我们建议实施额外的算法或微调 MediaPipe 管道。总的来说,我们的演示器为 CAI 部门提供了一个展示 AI 的宝贵工具,因为它允许观众使用直观的手势与机器人互动,并通过观察机器人的即时反应来亲身体验 AI。
doi no:10.36713/epra16515抽象有效交流是人类互动的基石,促进了社会的凝聚力和发展。在整个历史上,沟通从原始图纸演变为复杂的语言,塑造了我们社会的结构。然而,在这种进步中,有言语和听力障碍的人通常在交流中面临重大挑战。尽管构成了少数族裔,但他们的需求至关重要,不得忽略。认识到语言分类为口头和非语言形式,很明显,非语言语言起着至关重要的作用,尤其是对于有听力和语音障碍的人(IWSHI)(IWSHI)。这些人依靠非语言交流方法与周围的世界互动,但是由于缺乏理解和可及性,他们经常面临障碍。为了应对这一挑战,HSLR应用程序是一种变革性工具,使IWSHI能够自信地进行交流。利用诸如增强现实(AR)和机器学习(ML)之类的技术,我们的应用程序促进了对手势的实时识别,为无缝通信提供了瞬时的翻译。此外,AR技术的集成增强了用户体验,提供了沉浸式和交互式的标志性通信平台。由于我们提供的足够的数据集,实时使用的MediaPipe模型在识别手语方面具有很高的精度。关键词:手语言识别(HSLR),增强现实(AR),机器学习(ML),美国手语(ASL),计算机视觉,MediaPipe 1。引入言语和听力障碍的人遇到了相当大的互动障碍,尤其是那些不认识指示语言或动作的障碍。缺乏理解通常会给可靠的沟通带来障碍,从而防止社会融合和参与。创建一个选项,以帮助IWSHI与没有听力问题的人之间的平稳互动,这是一个很大的困难。对这一直接要求的反应,使用AR-ML(HSLR)工作是为了克服这些相互作用的障碍而产生的努力。
在我们现代时代,机器人技术是一个总是在变化的领域。机器人是一种机械机器,可以在人类的指导和控制下进行手动劳动。已经开发了许多机器人,以进行人们无法直接完成的危险活动。本研究提出了一种用于使用计算机视觉的人类机器人相互作用的机器人手势系统。MediaPipe用于通过实时的手动跟踪和具有里程碑意义的检测来识别静态手势。公认的手势被转化为控制信号,并发送到配备伺服电机的Arduino控制机器人手。结果证明了该系统在辅助机器人技术,远程操作和教育中的应用潜力,未来的工作着重于动态手势和增强实时性能。
3 Galgotias University,大诺伊达摘要:计算机是我们生活的重要组成部分,我们的许多日常工作都取决于它们。使它们更容易,更有效地使用是我们一直在努力改进的东西。与计算机交互的最重要工具之一是鼠标。虽然无线老鼠(例如蓝牙鼠标)可以帮助我们切断绳索,但它们仍然需要USB连接,因此它们并非完全没有设备。该系统通过提供一种仅使用相机来控制计算机光标的方法来解决计算机的光标。它使用MediaPipe和OpENCV通过机器学习来检测手势,使用户可以免费移动光标,单击和滚动,并完全免费。这使与计算机进行交互更加容易,更方便,而无需任何额外的设备。