控制台。吊杆通过集成在操作员控制台中的单独吊杆控制单元 (BCU) 进行控制。BCU 不是 TRVS 的一部分。TRVS 与 BCU 接口接收有关吊杆位置和状态的信息。此信息与信号器一起显示在加油图像顶部的图形叠加层中。视觉信息通过两个视频系统、一个监视视觉系统和一个立体视觉系统生成。这些系统共同构成了“加油机远程视觉系统”(TRVS)。监视视觉系统基于三个摄像头,覆盖超过 180 度的水平视野,位于 KDC-10 的两个翼尖之间,在后方。图像以全景视图显示在操作员控制台的三个监视器上。立体视觉系统基于两个瞄准加油杆尖端的摄像机的双通道图像。立体图像是通过使用快门系统获得的。操作员佩戴被动偏光眼镜,将图像分开,从而产生生动的立体图像。立体视觉系统还包括深度合成符号。该视觉系统适用于白天和夜间视觉(近红外)。TRVS 已被证明是一种高性能视觉系统,已在多次空对空加油试飞中展示了其潜力
用于异常姿态恢复的合成视觉系统商用飞机驾驶舱显示技术 Lawrence (Lance) J. Prinzel III、Kyle E. Ellis、Jarvis (Trey) J. Arthur、Stephanie N. Nicholas 美国国家航空航天局兰利研究中心 弗吉尼亚州汉普顿 Daniel Kiggins 上尉 美国国家航空航天研究所 弗吉尼亚州汉普顿 一项针对全球 18 起失控事故和事件的商业航空安全小组 (CAST) 研究确定,在其中 17 起事件中,缺乏外部视觉参考与机组人员失去姿态意识或能量状态意识有关。因此,CAST 建议开发和实施虚拟日间视觉气象条件 (VMC) 显示系统,例如合成视觉系统,该系统可以促进机组人员在类似于日间 VMC 环境中的姿态意识。本文介绍了高保真大型运输飞机模拟实验的结果,该实验评估了虚拟日间 VMC 显示器和“背景姿态指示器”概念,以帮助飞行员从异常姿态中恢复。12 名商业航空公司飞行员进行了多次异常姿态恢复,并收集了定量和定性相关指标。描述了该 CAST 计划和 NASA“飞机状态意识技术”研究项目下的实验结果和未来研究方向。最近的事故和事件数据表明,运输类飞机的空间定向障碍 (SD) 和能量损失状态意识 (LESA) 正在成为所有国内和国际运营中日益普遍的安全问题 (Bateman, 2010)。SD 是指对飞机姿态的错误感知,可直接导致失控 (LOC) 事件并导致事故或事件。LESA 的典型特征是无法监控或理解能量状态指示(例如空速、高度、垂直速度、指令推力),从而无法准确预测维持安全飞行的能力。LESA 的主要后果是飞机失速。CAST 对 18 起失控事故的研究表明,在其中 17 起事件中,缺乏外部视觉参考(即黑暗、仪表气象条件或两者兼有)与机组人员失去姿态意识或能量状态意识有关。虚拟日间 VMC 显示 虚拟日间 VMC 显示旨在为机组人员提供类似的视觉提示,这些提示在外部能见度不受限制时可用(即在 VMC 下观察到)。飞机状态意识联合安全分析 (JSAT) 和实施小组 (JSIT) 报告 (CAST, 2014a; CAST, 2014b) 建议,为了提供必要的视觉提示,防止机组人员的 SD/LESA 导致 LOC,制造商应开发和实施虚拟日间 VMC 显示系统,例如合成视觉系统。为了支持这一实施,CAST 要求美国国家航空航天局 (NASA) 进行研究,以支持定义虚拟日间 VMC 显示的最低要求,以实现提高机组人员对飞机姿态意识的预期功能;请参阅 CAST 安全增强 200 (SE-200),标题为“飞机状态意识 - 虚拟日间 VMC 显示”。飞机状态感知 – 虚拟日间 VMC 显示器 NASA 开发了一个名为“飞机状态感知技术”(TASA)的项目,该项目部分解决了 CAST 的研究请求,以支持制造商设计和实施虚拟日间 VMC 显示器,这将提供必要的视觉提示以防止 SD/LESA 并有助于检测异常姿态和执行恢复。在大型运输飞机中,异常姿态在操作上定义为机头向上俯仰姿态大于 25 度、机头向下俯仰姿态大于 10 度、倾斜角大于 45 度或在这些参数范围内飞行但空速不适合条件。它们的预期功能是提高连续姿态、高度和地形感知能力,降低不稳定进近、无意中进入
摘要 — 无人机的视觉对于无人机相关应用(例如搜索和救援、在移动平台上着陆等)非常重要。在本工作中,我们开发了无人机在移动平台上着陆以及复杂环境中无人机物体检测和跟踪的集成系统。首先,我们提出了一种基于 LoG 的鲁棒深度神经网络进行物体检测和跟踪,与典型的基于深度网络的方法相比,它在对物体尺度和光照的鲁棒性方面具有很大的优势。然后,我们还在原有的卡尔曼滤波器的基础上进行了改进,并设计了一个基于迭代多模型的滤波器来解决运动估计实际情况下未知动态的问题。接下来,我们实现了整个系统,并在两种复杂情况下进行了基于 ROS Gazebo 的测试,以验证我们设计的有效性。最后,我们将提出的检测、跟踪和运动估计策略部署到实际应用中,以实现无人机对支柱的跟踪和避障。事实证明,我们的系统在实际应用中表现出很高的准确性和稳健性。
现代工业中机器人使用率的提高带来了可通过机器人执行的新型制造任务。尽管在许多情况下,由于人类的灵活性,这些任务需要人类的参与。工业工作场所应由人类和机器人同时共享,以达到最佳生产率水平。通过 HRC 概念,生产的灵活性和多功能性得到提高 [1][2][3]。人机合作概念适用于许多工业应用,如装配任务、包装、焊接任务和物体操作 [4][5]。在现代合作任务中,机器人和人类在共享工作空间中并肩工作,无需使用钢栅栏或笼子等辅助安全装置。通过这种方式,操作员可以提供人类的灵活性和感知能力,而机器人则提供其
飞行员-飞机布局是较复杂的人机技术系统之一 [10, 30, 32, 43]。飞行员犯错的主要原因是在短时间内接收大量信息 [14, 15, 29, 30]。飞行员工作的一个特点是将注意力转移到仪表上,并同时从传入信号中插入信息 [6, 16, 29, 43]。这会带来许多风险,这些风险可能导致一系列危险事件,从而对机组人员和乘客的健康和生命构成威胁 [10, 30, 38]。合适的座舱设备可优化操作员和机器之间的功能划分,将危险降到最低。座舱应能够使遥控器与机器正确适配,反之亦然 [41, 43]。飞机飞行员或无人机操作员根据收到的情景信息采取行动 [5, 15, 32]。有了充分的信息,他就能正确地完成工作。当接收信号受到干扰或完全没有信号时,问题就开始了。这可能与机载仪器的读数有关,但也与直接从环境中接收的信息有关。2014 年 3 月 22 日,从 Kaniów EPKW 飞往 Mielec EPML 机场的一次紧急降落就是一个例子。由于着陆需要
16. 摘要 提高低能见度操作期间的安全性是航空业面临的最关键挑战之一。为此,航空界一直致力于开发驾驶舱显示技术,以提高飞行员在自然视力受损的情况下获取视觉信息的能力。组合视觉系统 (CVS) 就是这样一种技术。CVS 利用机载成像传感器(例如毫米波雷达、前视红外)以及地形和障碍物数据库获取的数据,将它们组合起来,并以叠加的方式显示在驾驶舱显示器上。CVS 的一些操作优势包括改进的跟踪性能、减少飞行路径误差和减少工作量。未来的研究应解决飞行员在特定操作结构(例如,低头显示器与抬头显示器)中使用 CVS 的表现、CVS 显示器缩小对飞行员表现的影响以及使用 CVS 时低头到抬头的转换。
处理器接收到的触发数据的延迟包括触发潜伏期的触发器以及其他几个因素。这些因素之一是曝光时间。在固定曝光时间的视觉系统中,暴露时间不会影响触发触发图像的确定性。在相机曝光时间变化的相当罕见的情况下,曝光的可变性增加了传递图像的延迟变化。图像数据传输时间也是一个主要因素。在许多现有标准中,交货时间有一些差异。数据包上空间接增加了触发器,以达到图像已交付的延迟。如果接口协议包括握手和重传,则延迟可能会变化得多。最后,如果系统设计包括将多个设备联网到一个通用端口,则延迟不确定性会大大增长。
在这项工作中,我们提出了梦想,这是一种fMRI到图像的方法,用于重建从大脑活动中查看的图像,基于人类Vi-Sual System的基本知识。我们制作的反向途径模仿了人类如何看待视觉世界的高度和平行性质。这些量身定制的途径专门用于fMRI数据的解密语义,颜色和深度线索,反映了从视觉刺激到fMRI录音的前进途径。这样做,两个组件模仿了人类视觉系统中的反向过程:反向Vi-Sual Toalsosis Cortex(R-VAC)逆转了该大脑区域的途径,从fMRI数据中提取语义;反向平行的PKM(R-PKM)组件同时预测fMRI信号的颜色和深度。实验表明,从外观,结构和语义的一致性方面,我们的方法优于最新模型。代码将在https://github.com/weihaox/dream上提供。
AI Cobot 是一款无缝融合人工智能、视觉和协作机器人三大技术领域的协作机器人。这种融合有效地结合了“大脑”、“眼睛”和“手”的功能,使协作机器人能够像人类一样执行视觉任务、做出判断并执行动作。自动化流程不仅可以节省时间和资源,还能促进有效的人机协作,提升整体生产质量,并为您的工厂带来显著的价值。十五年前,协作机器人引入了人机协同工作的概念。如今,新一代 AI 协作机器人将拥有智能可靠伙伴的梦想变成了现实。
■ 得益于宽动态范围,不会因场景内光强度差异过大而丢失信息,例如在隧道中行驶(外面是日光,里面是低光照水平)或有强光前照灯跟随的车辆