模仿自然解决技术问题的进化算法、将植物变成活数据档案的合成 DNA 以及在生物体内使用自主机器只是几个例子,表明生命与技术之间的界限在 21 世纪初已经变得模糊不清。虽然生物体的技术化历史悠久,但如今在生物信息学、分子生物学和其他领域可以观察到技术日益生物化。这一发展的特点是学科和方法论界限的跨越。越来越难以说出生物学与技术、科学与经济、代表与干预之间的界限在哪里。事实上,生物体和技术不再被认为是本体论上不同的实体。相反,生物和技术系统似乎正变得越来越交织在一起,并在这一过程中交换属性。在这种背景下,自然本身越来越成为技术设计和经济投资的构建工具和资源。
摘要 —本文主要研究基于视觉的无人机导航障碍物检测与跟踪问题。通过将物体检测和跟踪有效地集成到动态卡尔曼模型中,开发了一种从单目图像序列中进行实时物体定位和跟踪的策略。在检测阶段,通过每帧图像背景连接线索计算出的显著性图自动检测和定位感兴趣的物体;在跟踪阶段,采用卡尔曼滤波器对物体状态进行粗略预测,然后通过结合显著性图和两个连续帧之间的时间信息的局部检测器进一步细化预测。与现有方法相比,所提出的方法不需要任何手动初始化跟踪,运行速度比同类最先进的跟踪器快得多,并且在大量图像序列上实现了具有竞争力的跟踪性能。大量实验证明了所提出方法的有效性和优异的性能。
在主动模式下,改进包括引入啁啾探测脉冲和匹配接收。通过降低表面混响水平,声纳的探测范围可以显著增加。显示使用真实全景图,带有彩色目标强度展示和回波包络(A 型显示)和电子放大镜(缩放功能)。通过引入与提供导航数据和传输目标信息的机载指挥系统的通信,两个系统都可以自动直观地表示当前的战术情况,即检测到的物体的移动。图 5 给出了显示的示例以及它如何表示目标的路线。这大大加快并改善了直升机与船舶和直升机与直升机之间的通信过程。
如今,空间碎片已成为卫星系统的主要威胁之一,尤其是在低地球轨道 (LEO) 上。据官方估计,有超过 700,000 个碎片物体有可能摧毁或损坏卫星。通常,无法从地面直接识别撞击的影响。但是,高分辨率雷达图像有助于检测这种可能的损坏。此外,还可以对未知的空间物体或卫星进行调查。因此,DLR 开发了一种名为 IoSiS(太空卫星成像)[2, 3] 的实验雷达系统,该系统基于现有的转向天线结构和名为 GigaRad [1] 的多用途高性能雷达系统,在传播方向上的分辨率优于 5 厘米。在横向或方位角方向上,通过使用逆合成孔径雷达 (ISAR) 技术,可以获得高空间和距离独立分辨率。该技术基于沿合成孔径从不同角度对物体进行相干观察,需要在轨道通过期间精确跟踪物体。因此,要在距离和方位角上获得相似的分辨率,就必须进行宽方位角观测。对于一个 ISAR 图像,5 厘米的预期空间分辨率意味着大约 25° 的观测角。如此高的空间分辨率不是遥感雷达应用的标准。目前的地球观测系统实现的分辨率在几分米的数量级,比现有系统差一个数量级。因此,这种改进需要相应更高的系统和轨道校正性能。特别是,对雷达电子设备、天线和馈电频率响应进行足够精确的校准至关重要。此外,还必须对观测物体进行精确的轨道测定。本文概述了 IoSiS 雷达系统的主要技术特点。讨论了主要的误差源和相应的解决方案。说明了最终生成几厘米分辨率的雷达图像的校准工作。
许多技术和系统,包括自动驾驶汽车,监视系统和机器人应用,都依赖能力来准确检测行人以确保其安全性。随着对实时对象检测的需求不断上升,许多研究人员致力于开发有效且值得信赖的算法以供行人识别。通过将学习复杂性意识到的级联反应与增强的级联集成,您只看一次(YOLO)算法,该论文提供了一个实时系统,用于识别项目和行人。使用Karlsruhe技术研究所和丰田技术学院(KITTI)行人数据集评估了所提出的方法的性能。优先考虑速度和准确性,增强的Yolo算法的表现优于其基线。在Kitti行人数据集上,建议的技术在现实世界中的有效性强调了其有效性。此外,复杂性感知的学习级联反应为简化的检测模型做出了贡献,而不会损害性能。当应用于需要对象和个人实时识别的方案时,提出的方法会始终提供有希望的结果。
摘要——空间非合作物体的主动视觉跟踪对于未来智能航天器实现空间碎片清除、小行星探索、自主交会对接具有重要意义。然而,现有的工作通常将此任务视为不同的子问题(例如图像预处理、特征提取和匹配、位置和姿态估计、控制律设计)并单独优化每个模块,这些模块是琐碎且次优的。为此,我们提出了一种基于 DQN 算法的端到端主动视觉跟踪方法,称为 DRLAVT。它可以仅依靠彩色或 RGBD 图像来引导追逐航天器接近任意空间非合作目标,其性能明显优于采用最先进的 2D 单目跟踪器 SiamRPN 的基于位置的视觉伺服基线算法。使用不同的网络架构、不同的扰动和多个目标进行的大量实验证明了 DRLAVT 的先进性和鲁棒性。此外,我们进一步证明我们的方法确实通过数百次反复试验利用深度强化学习学习到了目标的运动模式。
GNC 测试设施的 Joris Belhadj 补充道:“实验室的模型卫星(称为 BlackGEO)的制造包含了地球静止卫星地形的典型元素,并采用了包括多层绝缘和太阳能电池在内的典型卫星表面材料,以增强其光学代表性。这颗卫星也是由 Blackswan 根据 ESA 合同生产的,我们实验室的任何客户现在都可以使用它。”
空中触觉这项令人兴奋的新技术已被汽车和娱乐等多个行业采用,但它尚未出现在模拟飞行员训练或现实驾驶舱中。全飞行模拟器的制造、维护和操作成本高昂。不仅如此,每个模拟器仅限于一种飞机类型,这对于拥有多架飞机的大多数航空公司来说效率低下。随着触摸屏仪表的日益流行,驾驶舱显示器需要飞行员将注意力从窗外的视线中移开。但通过使用手势识别界面结合空中触觉反馈,我们可以弥补这一缺陷,同时为已经熟悉使用传统驾驶舱和传统仪表的飞行员增加现有技术的另一个维度。同时,使用增强现实和虚拟现实技术的模拟环境提供了高质量的沉浸式培训,飞行员可以从数百小时的模拟训练转变为在第一次飞行中对数百人的生命负责。空中触觉技术提供的软件可重新编程性和动态丰富性与基本全动平台相结合,可以实现仪表布局的互换,从而增强模拟沉浸感和环境。最后,通过借鉴和探索汽车行业的概念,本概念论文介绍了驾驶舱设计如何通过采用这项技术进行演变。如果飞行员的证词表明他们可以适应虚拟物体,那么这可以取代物理控制吗?
人类视觉在很大程度上仍未得到解释。计算机视觉在这方面取得了令人瞩目的进展,但目前仍不清楚人工神经网络在行为和神经层面上与人类物体视觉的近似程度。在这里,我们研究了机器物体视觉是否模仿人类物体视觉的表征层次结构,其实验设计允许测试动物和场景的域内表征,以及反映其现实世界上下文规律的跨域表征,例如在视觉环境中经常同时出现的动物场景对。我们发现,在物体识别中训练的 DCNN 在其后期处理阶段获得的表征可以紧密捕捉人类对动物及其典型场景同时出现的概念判断。同样,DCNN 的表征层次结构与特定领域的腹颞区到领域通用的前顶区中出现的表征转换显示出惊人的相似性。尽管有这些显著的相似性,但底层的信息处理却不同。神经网络学习类似于人类的物体-场景共现高级概念表示的能力取决于图像集中存在的物体-场景共现量,从而凸显了训练历史的根本作用。此外,尽管中/高级 DCNN 层代表了 VTC 中观察到的动物和场景的类别划分,但其信息内容显示出领域特定表示丰富度的降低。总之,通过测试域内和域间选择性,同时操纵上下文规律,我们揭示了人类和人工视觉系统所采用的信息处理策略中未知的相似之处和差异。
对于一系列医学分析应用,脑肿瘤定位和从磁共振成像 (MRI) 中分割脑肿瘤是一项具有挑战性但至关重要的工作。许多最近的研究包括四种模式:即 T1、T1c、T2 和 FLAIR,这是因为每个肿瘤致病区域都可以通过每种脑成像模式进行详细检查。尽管 BRATS 2018 数据集给出了令人印象深刻的分割结果,但结果仍然更复杂,需要更多的测试和更多的训练。这就是为什么本文建议在整幅图像之外的一小部分图像上操作预处理策略,因为这样才能创建一个有效且灵活的脑肿瘤分割系统。在第一阶段,使用不同的分类器(如决策树、SVM、KNN 等)开发集成分类模型,使用小部分的策略将图像分类为肿瘤和非肿瘤类,可以完全解决过度拟合问题并减少使用 inceptionv3 CNN 特征的 YOLO 对象检测器模型中的处理时间。第二阶段是推荐一种高效且基本的级联 CNN (C-ConvNet/C-CNN),因为我们处理每个切片中脑图像的一小部分。级联卷积神经网络模型以两种独立的方式提取可学习的特征。在 BRATS 2018、BRATS 2019 和 BRATS 2020 数据集上,对所提出的肿瘤定位框架进行了广泛的实验任务。三个数据集的 IoU 得分分别为 97%、98% 和 100%。本文详细讨论并介绍了其他定性评估和定量评估。
