摘要 - 手动跟踪是计算机图形和人机交互应用程序的重要组成部分。使用RGB摄像机没有特定的硬件和SENS(例如,深度摄像机)允许为大量设备和平台开发解决方案。尽管提出了各种方法,但由于阻塞,复杂的背景以及各种手势和手势,单个RGB摄像机的手跟踪仍然是一个具有挑战性的研究领域。我们提出了一个移动应用程序,用于从智能手机摄像机捕获的RGB图像中进行2D手跟踪。图像是由深层神经网络处理的,并经过修改,以解决此任务并在移动设备上运行,以寻找性能和计算时间之间的折衷方案。网络输出用于显示用户手上的2D骨架。我们在几种情况下测试了我们的系统,显示了交互式手动跟踪水平,并在变化的亮度和背景和小遮挡的情况下取得了令人鼓舞的结果。索引术语 - 深度学习,人类计算机互动,图像处理,手跟踪
执行差距分析。我们可以从解决CSRD的欧洲同行中学到的一件事是,数据可用性和质量是实施的最大障碍。当今公司的企业资源计划(ERP)和其他中央源系统中,澳大利亚可持续性报告标准所需的许多信息都不存在。它可能会从电子表格和原始文档(例如发票)中手动跟踪。这是效率低下且容易出错的过程的食谱。公司需要密切关注数据策略的基本原理 - 可持续性数据的定义,来源,管理和处理。
联合参谋部 J-6 从众多联合行动中吸取和收集的经验教训表明,在规划和使用有限数量的 UHF TACSAT 频率方面存在重大问题。事实证明,基于使用、地理位置、信道大小、需求访问和时间的当前方法和程序难以整合,并且需要大量的手动跟踪和操作。这些低效率导致了这一关键指挥和控制资源的短缺。这份多军种战术、技术和程序 (MTTP) 出版物整合并标准化了军种战术、技术和程序 (TTP),用于规划和执行 UHF TACSAT 频率管理操作。它可作为规划和执行指南以及与当前联合条令一致的协调和同步框架。
在我们现代时代,机器人技术是一个总是在变化的领域。机器人是一种机械机器,可以在人类的指导和控制下进行手动劳动。已经开发了许多机器人,以进行人们无法直接完成的危险活动。本研究提出了一种用于使用计算机视觉的人类机器人相互作用的机器人手势系统。MediaPipe用于通过实时的手动跟踪和具有里程碑意义的检测来识别静态手势。公认的手势被转化为控制信号,并发送到配备伺服电机的Arduino控制机器人手。结果证明了该系统在辅助机器人技术,远程操作和教育中的应用潜力,未来的工作着重于动态手势和增强实时性能。
摘要 - 手动跟踪教室出勤,这是一种备受推崇的传统方法,由于其对错误和效率低下的敏感性而提出了重大挑战。这些限制不仅消耗了宝贵的教师时间,而且损害了学术记录的准确性,从而影响了学生参与和表现的评估。回答这个问题,我们提出了一种使用基于机器学习的识别系统自动化课堂出勤的方法。这项研究旨在提高教育环境中出勤跟踪的准确性,效率和可靠性。我们研究的核心在于系统的设计和实施,阐明体系结构,数据流和集成到课堂环境中。我们的分析结果表明该系统可以跟踪出勤率的能力,同时提供有关其性能指标的准确信息。我们还深入研究了在课堂上实施此类技术的道德和实际考虑。通过使用基于机器学习的识别来自动化该过程,教育机构可以提高其运行效率,降低错误,并最终提供更有生产力的学习环境。我们的研究为教育研究和技术进步的未来途径打开了大门。关键字 - 自动出勤,出勤跟踪,面部识别,机器学习,课堂技术
开创性的发现表明,飞行昆虫会主动调节翅膀、腿和腹部等身体附属物以保持飞行。然而,在飞行过程中捕捉它们运动的初始阶段相当具有挑战性且耗时,特别是在对长视频图像进行数字化时。因此,我们开发的自动视觉跟踪系统将极大地提供对昆虫飞行过程中身体和翅膀动态的全面访问。通过使用先前由自动时间分辨高速摄像捕获的数字化图像获得的位置数据集,我们进一步三维重建了家蝇(Musca domestica)的身体和翅膀动态。我们验证并进一步比较了自动数字化与手动跟踪。我们的分析估计,沿 z 轴的运动会产生更大的差异(胸部为 16 ± 28.19 毫米,翼尖为 13 ± 99.19 毫米),因为它正交指向相机,这导致由于焦深有限而导致校准系数的误差在可接受范围内。� 2019 Elsevier Ltd. 保留所有权利。
旧的控制方式到系统音量,例如使用鼠标,键盘,按钮或遥控器可能很无聊,而且很困难。如果该人远离计算机或正在使用双手使用,这可能主要是问题。因此,需要更效率和无提机的方法来控制计算机音量。在此项目中,我们建议使用手势控制来更改计算机的音量。通过使用手动跟踪和地标,我们可以识别用户制作的手势并将其转换为命令以调整音量。这种方法可以提供更自然,更直观的方法来控制计算机音量。为了实现此解决方案,我们将使用计算机视觉,机器学习和编程工具的组合。具体来说,我们将使用OpenCV库进行计算机视觉和张量,以进行机器学习。我们还将使用Python编程语言来开发应用程序。该项目的预期输出是一个应用程序,可以跟踪用户的手部移动并将其解释为调整计算机音量的命令。用户将能够通过用手做简单的手势来控制音量!
洛克希德马丁公司自 2009 年以来使用价值 170 亿美元的系统来监控 F-35 战斗机的维修、零件更换和一般维护,但该系统存在很多缺陷,有时迫使工作人员花费数小时手动输入数据,据国会审计人员称。美国政府问责局在彭博新闻社获得的一份报告中称,接受审查的五个美国空军、海军和海军陆战队基地之一的维护人员“估计每年平均花费 5,000 到 10,000 小时手动跟踪洛克希德系统应该自动准确捕获的信息”。此外,美国政府问责局表示,自主后勤信息系统 (ALIS) 中的“不准确或缺失数据”有时会导致发出警报,称“飞机即使已准备好飞行也不应该飞行”。飞行员表示,这些缺陷影响了洛克希德制造的战斗机的战备状态。报告称,在一个地方,机组人员每周遇到多达 400 个“与不准确或缺失的电子记录有关的问题”。这个问题增加了人们对世界上最昂贵的武器系统 F-35 的不确定性。长期以来,人们的注意力集中在飞机 4280 亿美元的收购计划以及开发和生产中的挫折上。但现在,维持飞机的成本——估计在 66 年内约为 1.2 万亿美元——是军事官员和众议院军事委员会小组的立法者最担心的问题,该小组要求 GAO 进行评估。
摘要计算机应用程序的进步已经越来越促进了日常任务,最近的创新集中在语音助手和虚拟输入设备上。该技术对具有移动性挑战的个体或直接手动计算机交互的情况有限。利用计算机视觉和人工智能,这些应用程序可以解释视觉数据,例如人类运动,并决定执行相应的命令。本研究结合了语音助手,虚拟鼠标和虚拟键盘,以增强可访问性和可用性,特别是对于身体残疾人或喜欢替代输入方法的人。使用Python,MediaPipe和OpenCV,该应用程序有效地处理和解释用户手势,提供响应迅速,有效的计算体验。MediaPipe的功能特别有助于模型的精确度,优化了对AI驱动任务的手动跟踪和手势识别。用户可以通过各种手势来控制计算机光标,使用彩色盖或磁带在虚拟键盘上键入,并执行诸如左键单击和拖动项目之类的基本操作。这种集成的解决方案旨在提高生产率,使计算机更容易访问并增强用户的整体数字体验。在此类应用中,AI和计算机视觉的融合继续推动了创新和包容性的计算解决方案,并承诺在人类计算机互动中具有更大的可访问性和便利性的未来。