多年来,使用手势识别手势翻译来解决听力多数与聋人之间的沟通差距取得了重大突破。虽然基于接触的方法使用可穿戴设备,但由于其提供的便利性,因此优选基于视觉的解决方案,并且由于它避免了对复杂齿轮的需求。本研究介绍了Wika的开发,Wika是一种开源软件,旨在跟踪手的关节并将其解释为相应的手语对应物。DeepLabcut是一种无标记的姿势估计软件,通过训练顺序卷积神经网络来开发手工接头跟踪模型,利用提取的手术字母(A-Z)和数字(A-Z)和数字(1-9)基于关节的定位。开发的手接跟踪模型显示出4.92%的训练误差和5.74%的测试误差,p切断为60%。另一方面,开发的手语识别达到了96.44%的预测准确性,仅为0.0356%的流行阶层。该模型可以进一步集成到手机中,以进行签名和非签名人群之间的无缝对话。关键字:菲律宾手语,手动跟踪,骨骼数据,姿势估计,卷积神经网络菲律宾语言语言(FSL),菲律宾的聋人使用,将其起源追溯到美国手语(ASL)[1]。在菲律宾,聋人,静音或听力障碍的人数总数约占人口的1.23%。FSL通过弥合聋人和菲律宾和世界其他地方的听力多数来证明其效用[2]。大多数听证会菲律宾人不了解FSL,并且掌握它通常需要正式的教学[3]在聋人人群和听力多数之间产生语言障碍和明显的沟通差距[4]。这一差距妨碍了有意义的互动,限制了教育机会,并为影响聋人社区的福祉和进步的排斥循环提供了。听力菲律宾人不了解FSL的普遍性不仅在表达方面形成了差距,而且导致了非听证人群的文化差异和社会隔离。促进聋人社区的社会包容性和平等机会,为研究人员提供了急需的动力,以探索
运动是美国 15-24 岁人群脑外伤的第二大原因 [1]。儿童每年经历近 2,000,000 次与运动相关的脑震荡,CDC 报告称,2017 年,15% 的学生至少经历过 1 次脑震荡 [2]。2009 年之前,美国没有任何关于任何体育联盟(无论是学术联盟还是其他联盟)头部损伤的法律。由于对这一研究领域的关注不足,导致场边检查方法不够完善。2009 年,华盛顿州通过了第一部脑震荡法,即 Zachery Lystedt 法。直到 2014 年,加利福尼亚州才通过了 AB 2127,随后又在 2016 年通过了 AB 2007。现在,美国每个州都有脑震荡法律,使得脑震荡测试成为研究和创新技术开发的热点。直到最近,为适应新法规而提供的场边测试方法都是主观的,需要基线,而且很容易被操纵以伪造结果。这就是本文讨论的 StimulEye 技术背后的动机。该应用程序使用标准智能手机上的摄像头来测试脑震荡。智能手机的闪光灯会打开和关闭以刺激瞳孔,而摄像头会捕捉并记录这些反应。摄像头拍摄的视频经过多个阶段的图像处理以隔离和提取瞳孔,使智能手机能够测量其对光作出反应时的直径变化。该算法使用 OpenCV 将图像转换为灰度后对其进行归一化,然后使用二值阈值和腐蚀来
1通讯作者:shital.pawar@bharatividyapeeth.edu收到:2024年5月13日修订:2024年6月11日接受:2024年7月11日出版:2024年7月27日,摘要 - 空白空间,商店和大型市场上的货架上的货架上的物品较少,而大型市场经常通过在需要的情况下使客户无法使用这些物品,从而使客户不满意。在商店和大型市场的货架上,空间和较少的物品通常会在需要时使不可用的物品使客户失望。这也反映了商店员工对工作的承诺。结果,销售量减少和卖方与客户之间的信任分解。对象检测用于识别较少项目的空空间和架子。通常用于对象检测的算法包括CNN,Yolo和SSD。使用了大型,可自由可用的标准数据集,例如Pascal(板号1)和Pascal(板号2),每个数据集都被使用,每个数据集包含约20个班级的货架项目检测。物品被标记为“库存”及其名称。此标签有助于视觉表示这些项目。对象检测通常需要GPU和网络摄像头。系统已经开发了一个包含四类杂货项目的数据集。项目的标签已从其各自的图像中得出,并将注释存储在单独的图像文件中。该系统已经使用Yolov5算法进行训练。由显示空货架或低项目计数的图像组成的输出已连接到电报API,以通知商店工作人员根据需要进行补货,从而简化了RETSOCKing Process。此多功能应用程序可用于库存管理,研究和开发,也可以与商业零售商店集成,并利用CCTV摄像机进行监视。
在没有仪表进近或先进设备的小型机场,飞机自动着陆是一项安全关键任务,需要使用飞机上的传感器。在本文中,我们研究使用摄像头作为主要传感器的固定翼飞机自动着陆系统的伪造。我们首先介绍一种基于视觉的自动着陆架构,包括基于视觉的跑道距离和方向估计器以及相关的 PID 控制器。然后,我们概述了使用实际飞行数据验证的着陆规范。使用这些规范,我们建议使用伪造工具 Breach 来查找自动着陆系统中规范的反例。我们的实验是使用 X-Plane 飞行模拟器中的 Beechcraft Baron 58 与 MATLAB Simulink 通信实现的。
根据 ONERA [1] 和 EASA [21] 的路线图,实施机器学习 (ML) 技术以提高飞行器的自主性和可靠性是一个非常活跃的研究领域。视觉传感器和计算性能的最新进展以及 ML 技术和算法的改进使基于计算机视觉的解决方案成为改进制导、导航和控制架构的真正资产,例如通过丰富数据融合算法,从而提高无人机的导航性能 [24]。此外,这些解决方案是被动的、廉价的,除了机载摄像头和视觉处理单元外,不需要任何特殊设备。近年来,ONERA 和 ISAE-SUPAERO 为基于计算机视觉的民用飞机自主性和安全性的最新进展做出了重大贡献。尽管获得了宝贵的成果和多次成功的飞行演示,但大多数开发的方法都是基于经典技术,数据驱动算法的使用非常有限,并且考虑的场景仅限于正常能见度条件。因此,其他机器学习方法和架构仍有很大的改进和探索空间,特别是在民用飞机着陆阶段,在正常和下降的能见度条件下。事实上,着陆阶段被认为是迄今为止最关键的阶段,它可以从计算机视觉工具中受益,这些工具可以为飞行员提供信息,甚至可以部分或完全控制飞机。基于视觉的着陆是 EASA CoDANN(神经网络设计保证概念)报告 [6] 中详述的第一个具体示例,需要在传感器生成的图像上识别着陆跑道。
用于对象检测和跟踪的图像和视频处理在计算机视觉领域有许多重要应用。 很容易确定视频分析中的三个关键步骤:检测有趣的移动物体、逐帧跟踪检测到的物体以及分析物体轨迹以识别其行为和目标物体。 自动瞄准武器的另一个现有示例是哨戒枪,它瞄准并射击由其传感器选择的目标。 另一个现有的应用是“防空枪”,它安装在陆军坦克顶部的设备上,可自动跟踪和射击低空飞行的物体。 使用摄像头进行物体检测是图像处理的一场革命,它本身在各种民用和军事领域都有应用。 这些应用包括空中交通管制、导航系统、容错系统、判断问题、检查、目标分析、指挥和控制、传感器管理和武器辅助。 1.1运动检测:
牲畜看护人已采取了不同的措施来检测和监测其牲畜的健康和福利状况。但是,手动执行使这项任务成为劳动力密集,昂贵且耗时的练习。许多研究已经探索了各种现代技术,以改善牲畜的生产,从中,计算机视觉已被证明是高效有效的;然而,对计算机视觉应用的彻底调查揭示了在精确的牲畜种植(例如牛种植)中拥抱和实施它的值得注意的障碍。在障碍中是1)无法获得可靠的公共牲畜数据集和2)缺乏经过测试和值得信赖的广义方法/模型在进行新数据集进行研究和实验时采用的。本文概述了基于计算机视觉的精确牲畜农业的挑战,可能的方向以及未来的研究机会。关键字:牛,挑战,计算机视觉,机会,精密牲畜耕作1.简介
参与者使用头盔显示器 (HMD) 和触摸屏显示器通过 3 种不同的方法检测目标,以显示间接视觉显示系统的 360º 视频。使用受试者内设计,目标包括下马、骑乘和空中目标。测量了检测到的目标数量、工作量和每种条件的可用性。与监视器条件相比,HMD 条件在总体上和每种类型的目标类型中检测到的目标明显更多。根据 NASA TLX 的测量,与其他条件相比,HMD 的使用还产生了明显较低的心理工作量,并且实现了明显更高的可用性。讨论了这些差异的可能原因,并讨论了未来使用 HMD 和混合现实技术进行间接视觉显示系统的研究。
参与者使用头盔显示器 (HMD) 和触摸屏显示器通过 3 种不同的方法检测目标,以显示间接视觉显示系统的 360º 视频。采用受试者内设计,目标包括下马、骑乘和空中目标。测量了检测到的目标数量、工作量和每种条件下的可用性。与监视器条件相比,HMD 条件在总体上和每种目标类型中检测到的目标数量明显更多。与其他条件相比,使用 HMD 还产生了明显较低的心理工作量(由 NASA TLX 测量),并且实现了明显更高的可用性。讨论了这些差异的可能原因,并讨论了未来使用 HMD 和混合现实技术进行间接视觉显示系统的研究。