飞行员-飞机布局是较复杂的人机技术系统之一 [10, 30, 32, 43]。飞行员犯错的主要原因是在短时间内接收大量信息 [14, 15, 29, 30]。飞行员工作的一个特点是将注意力转移到仪表上,并同时从传入信号中插入信息 [6, 16, 29, 43]。这会带来许多风险,这些风险可能导致一系列危险事件,从而对机组人员和乘客的健康和生命构成威胁 [10, 30, 38]。合适的座舱设备可优化操作员和机器之间的功能划分,将危险降到最低。座舱应能够使遥控器与机器正确适配,反之亦然 [41, 43]。飞机飞行员或无人机操作员根据收到的情景信息采取行动 [5, 15, 32]。有了充分的信息,他就能正确地完成工作。当接收信号受到干扰或完全没有信号时,问题就开始了。这可能与机载仪器的读数有关,但也与直接从环境中接收的信息有关。2014 年 3 月 22 日,从 Kaniów EPKW 飞往 Mielec EPML 机场的一次紧急降落就是一个例子。由于着陆需要
PSV 设备提供全方位的飞行准备、飞行中和任务后操作。PSV 实现直观的飞行数据指示(飞机运动的 3D 可视化 -“合成视觉”)和先进的数据处理功能,以提高飞行安全性。PSV 以易于理解的方式显示所有必要信息并提供直观的飞行指导,从而减少飞行员的工作量并提高情况意识。所有数据显示在安装在面板上的便携式 PC 的阳光下可读屏幕上。PSV 设备不需要复杂的安装程序,因为它是自带设备并且不会替代任何机载系统。因此,它是驾驶舱改造和驾驶舱现代化的最佳解决方案(考虑到性价比)。
如今,民用飞机借助外部技术实现自动着陆。最常用的系统称为 ILS(仪表着陆系统),它允许飞机在无需飞行员操作(监控除外)的情况下着陆。其他定位解决方案包括差分 GPS、IRS(惯性参考系统)或 VOR/DME(甚高频全向测距/距离测量设备)。这些技术并非随处可用(未配备或未知的机场)且并非随时可用(存在故障概率)。为了应对这些问题(获得精确的绝对位置)并扩大自动着陆覆盖范围,将研究使用摄像机作为附加信息源。在过去十年中,摄像机技术取得了技术飞跃,因此为每架飞机配备摄像机似乎既简单又便宜。视觉伺服包括使用视觉传感器和计算机视觉算法来控制系统的运动(参见 [1] 中的教程)。第一类控制称为 PBVS(基于姿势的视觉伺服),包括使用视觉测量来估计相机的偏差或方向。第二类控制称为 IBVS(基于图像的视觉伺服),包括控制图像平面中视觉特征的坐标。过去十年来,人们一直在研究用于飞机自动着陆的 IBVS 解决方案;在 [2][3][4][5][6] 中,提出了制导解决方案,以达到并跟踪所需的进近轨迹。尽管如此,这些方案需要开发具有完整链的新制导律(由图像捕获、图像处理和非线性制导算法组成),这可能难以认证
摘要 — 无人机的视觉对于无人机相关应用(例如搜索和救援、在移动平台上着陆等)非常重要。在本工作中,我们开发了无人机在移动平台上着陆以及复杂环境中无人机物体检测和跟踪的集成系统。首先,我们提出了一种基于 LoG 的鲁棒深度神经网络进行物体检测和跟踪,与典型的基于深度网络的方法相比,它在对物体尺度和光照的鲁棒性方面具有很大的优势。然后,我们还在原有的卡尔曼滤波器的基础上进行了改进,并设计了一个基于迭代多模型的滤波器来解决运动估计实际情况下未知动态的问题。接下来,我们实现了整个系统,并在两种复杂情况下进行了基于 ROS Gazebo 的测试,以验证我们设计的有效性。最后,我们将提出的检测、跟踪和运动估计策略部署到实际应用中,以实现无人机对支柱的跟踪和避障。事实证明,我们的系统在实际应用中表现出很高的准确性和稳健性。
两种基于图像的传感方法被融合以模拟人类视觉,以支持空中检测和避免以及反无人机系统应用。在所提出的传感系统架构中,外围视觉摄像头(带鱼眼镜头)提供大视野,而中央视觉摄像头(带透视镜头)提供特定目标的高分辨率图像。除了两个摄像头和支持算法的互补能力以实现被动检测和分类之外,这对摄像头还形成了一个可以支持距离分辨率的异构立体视觉系统。本文介绍了一种新型外围 - 中央视觉系统的开发和测试,该系统用于检测、定位和分类空中威胁。该系统用于生成各种模拟威胁的数据集,以便通过实验验证威胁定位误差的参数分析。还描述了基于蒙特卡罗模拟的系统性能分析,进一步深入了解了系统参数对威胁定位精度的影响。
半导体晶圆加工过程中产生的表面缺陷是微纳米加工面临的主要挑战之一。通常使用光学显微镜扫描晶圆,然后由人类专家检查图像。这往往是一个非常缓慢且令人疲惫的过程。由于可能出现的缺陷种类繁多,开发一种可靠的基于机器视觉的系统来正确识别和分类晶圆缺陷类型以取代人工检查是一项具有挑战性的任务。在这项工作中,我们开发了一种机器视觉系统,用于检查半导体晶圆和检测表面缺陷。该系统集成了光学扫描显微镜系统和基于 Mask R-CNN 架构的 AI 算法。该系统使用具有 MEMS、硅光子学和超导器件的晶圆在不同制造阶段(包括表面缺陷)的显微图像数据集进行训练。所实现的精度和检测速度使该系统有望应用于洁净室。
增加对高速公路的拥堵以及与现有检测器相关的问题引起了人们对新车检测技术(例如视频图像处理)的兴趣。现有的商业图像处理系统在自由tra c中效果很好,但是这些系统具有充满拥堵,造型和照明过渡的DI文化。这些问题源于部分彼此阻塞的车辆,以及在各种照明条件下车辆出现不同的事实。我们正在开发一个基于功能的跟踪系统,用于在这些挑战性的条件下检测车辆。没有跟踪整个车辆,而是跟踪车辆功能,以使系统稳健至部分遮挡。在不断变化的照明条件下,系统是完全函数的,因为跟踪给定时刻的最显着特征。功能退出跟踪区域后,它们将使用常见的运动约束将它们分组为离散车辆。组代表单个车辆轨迹,可用于测量跨性行为参数以及适合改善自动监视的新指标。本文描述了与基于功能的跟踪相关的问题,介绍了原型系统的实时实现以及在大型数据集上的性能。#1999 Elsevier Science Ltd.保留所有权利。
摘要:跟踪在协作机器人附近工作的人类操作员可以改善安全体系结构,人体工程学的设计以及在人与机器人协作场景中执行汇编任务。使用了三个商业空间计算套件及其软件开发套件,可提供各种实时功能来跟踪人类姿势。本文探讨了结合不同硬件系统和软件框架功能的可能性,这些功能可能会导致在协作机器人应用中检测人姿势的更好的性能和准确性。本研究在六个深度水平上评估了他们的性能,并比较了原始数据和降噪的过滤数据。此外,将激光测量设备用作地面真相指标,以及平均均方根误差作为误差度量。根据位置准确性和可重复性进行了分析并比较所获得的结果,表明传感器的性能在跟踪距离上的依赖性。使用基于卡尔曼的过滤器融合了人类骨架数据,然后考虑其在不同距离区域的性能,重建操作员的姿势。结果表明,在小于3 m的距离下,Microsoft Azure Kinect显示出更好的跟踪性能,其次是Intel Realsense D455和Stereolabs Zed2,而在范围高于3 m的范围内,ZED2的跟踪性能出色。
人类视觉在很大程度上仍未得到解释。计算机视觉在这方面取得了令人瞩目的进展,但目前仍不清楚人工神经网络在行为和神经层面上与人类物体视觉的近似程度。在这里,我们研究了机器物体视觉是否模仿人类物体视觉的表征层次结构,其实验设计允许测试动物和场景的域内表征,以及反映其现实世界上下文规律的跨域表征,例如在视觉环境中经常同时出现的动物场景对。我们发现,在物体识别中训练的 DCNN 在其后期处理阶段获得的表征可以紧密捕捉人类对动物及其典型场景同时出现的概念判断。同样,DCNN 的表征层次结构与特定领域的腹颞区到领域通用的前顶区中出现的表征转换显示出惊人的相似性。尽管有这些显著的相似性,但底层的信息处理却不同。神经网络学习类似于人类的物体-场景共现高级概念表示的能力取决于图像集中存在的物体-场景共现量,从而凸显了训练历史的根本作用。此外,尽管中/高级 DCNN 层代表了 VTC 中观察到的动物和场景的类别划分,但其信息内容显示出领域特定表示丰富度的降低。总之,通过测试域内和域间选择性,同时操纵上下文规律,我们揭示了人类和人工视觉系统所采用的信息处理策略中未知的相似之处和差异。
本文考虑的问题涉及小型和微型无人机 (UAV) 的基于视觉的自动驾驶仪的设计。所提出的自动驾驶仪基于基于光流的视觉系统,用于自主定位和场景映射,以及用于飞行控制和制导的非线性控制系统。本文重点介绍使用低分辨率机载摄像头和低成本惯性测量单元 (IMU) 开发用于估计光流、飞机自运动和深度图的实时 3D 视觉算法。我们的实现基于 3 个嵌套卡尔曼滤波器 (3NKF),可实现高效且稳健的估计过程。视觉和控制算法已在四旋翼无人机上实现,并在实时飞行测试中进行了演示。实验结果表明,所提出的基于视觉的自动驾驶仪能够利用从光流中提取的信息使小型旋翼机实现完全自主飞行。