本文全面介绍了该项目的开发过程及其显著贡献,该项目旨在打造一套专为视障人士定制的物体检测系统。该系统利用 Python 编程语言结合 YOLO(You Only Look Once,只看一次)算法,提供实时物体检测功能。本文深入探讨了所采用的方法、面临的挑战以及为优化系统性能、可用性和可访问性而设计的创新解决方案。通过协作,我们设计出了大量创新解决方案,涵盖算法选择、模型训练、硬件集成、用户体验设计、文档编制和持续改进等各个方面。这项协同努力的成果展现了在为视障人士提供增强的态势感知和导航辅助方面取得的显著进展,从而促进了社区的包容性和自主性。
I.简介 失明是世界上最常见的残疾之一。在过去的几十年里,因自然原因或事故而失明的人数有所增加。部分失明的人视力模糊,只能看到阴影,夜视能力差或视野狭窄。另一方面,完全失明的人没有视力。根据世界卫生组织的数据,全世界约有 22 亿视障人士或盲人 [1]。盲人传统上使用白手杖帮助他们在周围环境中导航,尽管这种方法无法提供远处移动障碍物的信息。此外,白手杖无法识别膝盖以上较高的障碍物。另一种帮助盲人的方法是使用经过训练的导盲犬。另一方面,经过训练的狗价格昂贵且难以获得。最近的研究 [2]-[9] 提出了几种可穿戴或手持电子旅行辅助设备 (ETA)。这些小工具中的大多数都包括各种传感器,可以绘制环境地图并通过耳机提供语音或声音警报。这些设备的可靠性受实时听觉信号质量的影响。许多当代 ETA 缺乏实时阅读辅助,用户界面差、成本高、便携性有限且没有免提访问。因此,这些小工具并不受盲人的欢迎,它们需要在设计、性能和可靠性方面进行改进,以便在室内和室外环境中使用。
有些学生可以使用指导动物,例如狗或微型马来浏览环境。指导犬不被视为IEP中列出的住宿,因为决定学生是否需要指导动物不是学校的责任。学校必须允许学生根据《残疾人法》(ADA)在学校使用指导动物,如果孩子有一个。学校可能需要记录学生在IEP中使用指导动物,并在学校中处理动物的护理计划。有关更多信息,请参见有关服务动物的2013年ISBE指南文件。
摘要 - 已经开发了越来越多的机器学习(ML)工具和原型,以协助空中交通管制员(ATCO)的决策过程。这些ML工具可以促进更快,更一致的决策,以进行流量监控和管理。但是,其中许多工具都使用了模型,在这些模型中,机器做出的决策不容易被ATCO组成。因此,有必要为ATCO开发可解释的基于ML模型的工具,以管理使用基于ML模型的决策的固有风险。这项研究调查了视觉上解释的ML模型,用于跑道出口预测,以实现更好的跑道管理。具体来说,这项研究采用了XGBoost上的局部可解释的模型解释(LIME),在该解释中,可以看到机器做出的跑道退出预测的决策。XGBoost在这里研究的三种飞机分别达到了94.35%,94.17%和80.87%的分类精度。分析石灰参数时,石灰显示了与特定跑道出口相对应的每个飞机的特征的贡献。此外,视觉分析可以将跑道退出预测中不确定性的来源告知决策者。因此,这项工作为基于ML的跑道出口预测铺平了道路,视觉上可解释的机器决策可以为ATCO提供见解,以提供有效的跑道管理以及到达和出发的计划。交互式接口可视化跑道退出预测的机器决策的交互式界面也是本文的原型。
在当今技术计算机化的世界,视力障碍人士面临着社会对抗的主要问题,他们认识到需要自力更生。他们在陌生的环境中苦苦挣扎,没有任何人工帮助。光学信息是大多数任务的基础,因此视力障碍人士处于不利地位,因为无法获得有关周围环境的必要信息。借助最新技术,可以为视力障碍人士提供支持。该项目旨在利用人工智能、机器学习、图像和文本识别来帮助那些失明或视力受损的人。这个想法通过移动应用程序体现出来,该应用程序明确专注于语音助手、图像识别、货币识别等。该应用程序还能够帮助用户使用语音命令识别日常生活中的物体,进行文本分析以识别硬拷贝文档中的文本。这将是视力障碍人士在技术的帮助下与世界联系并利用技术潜力的有效方式。
该项目介绍了专门针对视力障碍个人量身定制的创新的基于AI的交互式购物援助系统,旨在增强其购物体验并促进零售环境中的包容性。利用高级人工智能算法,该系统为面临视觉挑战的用户提供个性化的帮助,导航支持和无缝互动。通过直观的接口和自适应技术,残疾人有权以更大的独立性和信心来浏览零售空间。该系统利用Raspberry Pi 4上的相机模块和基于YOLO的深度学习算法进行实时对象分类,从而将处理的信息转换为可访问的音频输出。除了这些功能外,系统还使用了使用OCR和GTTS技术的语言自定义功能,从而使音频输出转换为基于用户偏好的多种语言。通过优先考虑视障人士的需求,这种开创性的系统旨在增强可访问性并促进所有人的包容性购物体验。
摘要这项研究的目的是研究触觉模型对改善视力受损人的健康的影响。干预的主要目的是提高活动能力,肌肉力量,灵活性和身体健康。纵向研究,这项研究得到了研究伦理委员会“ Naraina医学院和研究中心(NMCRC)”的批准,北方邦坎普尔。便利抽样是在2021年12月至2022年1月的三周内进行的。视力障碍(PP-PVI)过程的物理康复包括物理评估,语言选择,设计结构和视力障碍语言。对有视觉障碍的年轻人和年轻人进行了一项纵向研究。他们每周两次接受治疗,共12个月,并在治疗前后评估了他们的生活质量。使用30个项目的健康调查表(SF-30)评估了生活质量。平均分数在所有领域的分数都提高了,除了PP-PVI之后的生活质量问卷调查。PP-PVI已被证明是一种有价值,易于理解且可靠的临床工具。该产品适用于视觉障碍的人。对专业人士的影响:PP-PVI练习改善了您的身体和表现的许多方面。这在确保低视力的人的独立性方面起着重要作用。物理疗法可有效提高视觉和触觉运动技能。物理治疗师可以通过有针对性的锻炼和活动来帮助提高患有这些问题的人的整体功能和生活质量。关键词:视觉障碍,物理疗法方式,生活质量,久坐的生活方式
通过视觉引导手部动作进行的计算机交互通常采用抽象的基于光标的反馈或不同程度真实感的虚拟手 (VH) 表示。目前尚不清楚在虚拟现实环境中更改这种视觉反馈的效果。在这项研究中,19 名健康的右撇子成年人使用四种不同类型的视觉反馈执行食指运动(“动作”)和观察运动(“观察”):简单的圆形光标 (CU)、指示手指关节位置的点光 (PL) 图案、阴影卡通手 (SH) 和逼真的 VH。使用数据手套记录手指运动,并以光学方式记录眼动追踪。我们使用功能性磁共振成像 (fMRI) 测量大脑活动。与基线相比,动作和观察条件均显示枕颞皮质中的 fMRI 信号响应更强。动作条件还会引起运动、体感、顶叶和小脑区域的双侧激活增加。对于这两种情况,带有移动手指的手部反馈(SH、VH)比 CU 或 PL 反馈导致更高的激活,特别是在早期视觉区域和枕颞皮质中。我们的结果表明,与视觉不完整的手部和抽象反馈相比,在视觉引导的手指运动过程中,皮质区域网络的募集更强。这些信息可能对研究和应用或训练相关范例中涉及人体部位的视觉引导任务的设计产生影响。
基于特征提取的盲人物体识别 [4]。SIFT(尺度不变特征)算法被提出来实现该解决方案。它不需要任何形式的图像转换。进行预处理以消除噪声和不均匀照明造成的挑战。然后借助局部特征提取方法找出兴趣点,并为其计算特征或向量和描述符。该算法有助于将图像表示为图像的兴趣点集合,这些图像对图像变换不变且对照明变化有部分影响。它克服了以前实现 RGB 到 HSI 转换的缺点,因为图像的复杂性不会影响性能。但是,所使用的算法是闭源的,很难在不同设备上实现。