军事决策通常基于信息系统,其中人类参与其中,必须解释来自多个来源的数据。当数据源产生大量数据时,这个过程对人类来说可能非常难以承受。我们研究大数据分析和信息融合技术在多大程度上可用于支持人类处理大量异构数据,并作为 OODA 循环的观察和定位步骤的一部分提高对正在展开的事件的理解。我们的工作重点是融合来自两个非常不同的数据源的数据:来自社交媒体平台 Twitter 的用户生成内容和来自 OpenSky 传感器网络的空中交通管制数据。我们的目标是查找并提供与航空领域相关的事件的详细信息,这些信息同时出现在两个数据源中。挑战在于融合来自飞机通信的准确和明确的数据与 Twitter 中使用的非常广泛和不精确的自然语言。为了弥合这些来源之间的语义鸿沟,我们开发了一种先进的信息融合模型,该模型允许我们使用每个来源作为事件的触发器,同时使用来自另一个来源的信息丰富数据。使用我们几个月来收集的真实数据,我们展示了多个证据表明两个来源相互丰富。这是以自动化方式完成的,但通常会导致更松散和不准确的关系,需要人类进行适当的解释和理解。尽管如此,这种组合增强了理解,因此非常有助于作为决策者评估事件进展并采取相应行动的基础。
根据其章程,AGARD 的使命是将北约国家在航空航天科学技术领域的领军人物聚集在一起,以实现以下目的: - 为成员国推荐有效的方式,以便利用其研究和开发能力造福北约社区; - 向军事委员会提供航空航天研究和开发领域的科学和技术建议和援助(特别是在军事应用方面); - 不断促进与加强共同防御态势相关的航空航天科学进步; - 改善成员国在航空航天研究和开发方面的合作; - 交流科学和技术信息; - 向成员国提供援助,以提高其科学和技术潜力; - 根据要求,向其他北约机构和成员国提供与航空航天领域研究和开发问题有关的科学和技术援助。
由于跨传感器的依赖性,特征向量维数的显著增加不允许使用实践中通常可用的少量样本来学习分类模型。另一方面,在决策级融合中,传感器特定的分类模型经过训练并随后集成以做出组合决策。最近的研究表明,具有全局(所有传感器通用)分类模型的决策级融合更适合于在所有传感器上表现出(弱或强)表现的广义事件。虽然我们可以假设方案的选择取决于事件类型(广义与局部/局部),但先前的工作并没有提供足够的证据来指导融合方案的选择。因此,在这项工作中,我们旨在使用两种场景比较三种数据融合方案对广义和非广义事件进行分类:(i)基于 EEG 模式对阵发性事件进行分类;(ii)从多个传感器对跌倒和日常生活活动(ADL)进行分类。结果支持了我们的假设,即特征级融合更有利于表征异构数据(基于足够数量的样本),而在广义表现模式的情况下,应选择与传感器无关的分类器。允许免费复制本作品的全部或部分用于个人或课堂使用,前提是复制或分发的副本不得用于盈利或商业目的,并且副本首页必须注明此声明和完整引文。必须尊重 ACM 以外的人拥有的本作品组成部分的版权。允许摘要并注明出处。以其他方式复制、重新发布、发布到服务器或重新分发到列表,需要事先获得特定许可和/或付费。向 Permissions@acm.org 申请许可。SETN '18,2018 年 7 月 9 日至 12 日,希腊帕特雷 © 2018 计算机协会。ACM ISBN 978-1-4503-6433-1/18/07 15.00 美元
数据融合涉及的领域非常广泛,很难给出一个精确的定义。人们提出了几种数据融合的定义。Pohl 和 Van Genderen (Wald, 1999) 定义“图像融合是使用某种算法将两个或多个不同的图像组合成一幅新图像”,但仅限于图像。Hall 和 Llinas (Wald, 1999) 定义“数据融合技术结合了来自多个传感器的数据以及来自相关数据库的相关信息,以实现更高的准确性和更具体的推断,而这些仅通过使用单个传感器就可以实现”。该定义侧重于信息质量和融合方法。根据这些定义,可以推断数据融合的目的应该是获得信息,希望至少可以改善图像的可视化和解释。
传感器融合是自动驾驶汽车中感知问题的重要解决方案之一,其中主要目的是增强对系统的感知而不会失去实时性能。因此,这是一个权衡问题,通常观察到大多数具有高环境感知的模型无法实时执行。我们的文章与相机和激光雷达数据融合有关,以实现自动驾驶汽车的更好环境感知,考虑到3个主要类别是汽车,骑自行车的人和行人。我们从3D检测器模型中融合了输出,该模型从LiDar中获取了其输入以及从相机中获取其输入的2D检测器的输出,以比单独分别提供更好的感知输出,以确保其能够实时工作。我们使用3D检测器模型(复杂的Yolov3)和2D检测器模型(YOLO-V3)解决了问题,其中我们应用了基于图像的融合方法,该方法可以在本文中详细讨论了LIDAR和摄像机信息之间的融合和相机信息之间的融合。我们使用平均平均精度(MAP)度量,以评估我们的对象检测模型并将所提出的方法与它们进行比较。最后,我们在Kitti数据集以及我们的真实硬件设置上展示了结果,该设置由LIDAR Velodyne 16和Leopard USB摄像机组成。我们使用Python开发了我们的算法,然后在Kitti数据集上验证了它。我们将ROS2与C ++一起使用,以验证从硬件配置获得的数据集上的算法,证明我们提出的方法可以以实时的方式在实际情况下有效地提供良好的结果并有效地工作。
最重要的是,我对全能的真主表示最深切的感谢,他的无限怜悯和无限的恩典在整个旅程中引导了我。我还要对我的主管教授扬·伦德格伦(Jan Lundgren)教授和共同裁员马蒂亚斯·奥尼尔斯(Mattias O'Nils)教授的坚定支持,指导和鼓励。他们的指导一直在我从工程师转变为研究人员的转变中发挥了作用,使我有能力以有意义的方式为社会做出贡献。我对孟加特·奥尔曼(Bengt Oelmann)的审查并提供了宝贵的反馈。我衷心感谢我在该部门的同事们的持续支持,协作精神和表现的行政援助。最后,对我的父母做了无数牺牲以支持我的旅程。您应该得到一切,我很自豪地说您是世界上最好的父母。对我的妻子和两个男孩,他们对我的爱与信仰是我最大的力量。在我们分享的每一刻,我都非常感谢。愿这些记忆是时间的标记,共同度过了良好的时间。
本研究的部分资金由代顿地区研究生院 (DAGSI) 和空军研究实验室、传感器理事会、光电研究分部 (AFRL/SNJM) 提供。我要由衷感谢我的家人、朋友和莱特州立大学的同事在我攻读博士期间的支持。特别是,我要感谢以下人员,没有他们,本研究不可能完成:我的导师 Narayanan 博士,对我充满信心,鼓励我在遇到困难时坚持下去;Hill、Skipper、Litko 和 McManamon 博士抽出时间担任我的委员会成员并提出建设性批评;AFRL/SNJM 的 Matthew Dierking、Bob Feldmann、Larry Barnes 和 John Schmoll 对本研究的赞助; AFRL/SNJM 的 Timothy Meade 真的竭尽全力为我提供推动研究所需的一切;Brian Ewert 中校和Michael Nielsen 抽出时间,向我传授他们作为飞行员的专业知识;AFRL/HEPG 的 Bob Esken 不知疲倦地帮助我完成这个项目的最后阶段 — — 他的付出让我的成果比没有他时更有价值;Richard (Andy) McKinley、Narashima (Seshu) Edala 和 Mike Young 提供他们的建模专业知识来帮助我进行分析;最后,但当然也是最重要的,我的丈夫 Paul Muller,他在我的整个学术生涯中都包容我,每当我怀疑自己时,他总是安慰我。
aliannajmaren.com › 下载 PDF 作者:R Akita — 作者:R Akita 神经网络技术可用于执行船上多传感器相似和不相似数据的融合,以实现高置信度目标识别。8 页
摘要:军事指挥和控制系统必须处理各种不同的传感器和来源。除了传统信息源(如 IFF、战术数据链和 ESM 传感器)之外,AIS、蓝军跟踪和 GMTI 雷达等其他来源也成为目标识别和分类的重要来源。正确识别是防止误伤和平民附带损害以及完成态势感知的重要先决条件。本文概述了我们扩展贝叶斯识别过程的解决方案,以便为海军以及空中和地面目标建立战术图景。对于一些传感器和重要的识别源,如自动识别系统 (AIS)、自动目标识别 (ATR) 和 GMTI 雷达,我们将详细介绍解决方案。
自 1991 年以来,洛克希德马丁加拿大公司 (LM Canada) 的研究与开发 (R&D) 小组一直在开发和演示 1、2、3 和 4 级数据融合、资源管理和成像技术,这些技术将为海军和空中指挥与控制 (C2) 提供观察-定位-决策-行动 (OODA) 决策能力/工具,供加拿大巡逻护卫舰 (CPF) 和加拿大 CP-140 (Aurora) 固定翼飞机使用。在过去三年中,LM Canada 与加拿大国防研究机构 Valcartier (DREV) 合作,还建立了一个通用专家系统基础设施,并已证明它适合将这些决策技术集成到实时指挥与控制系统 (CCS) 中。多源数据融合 (MSDF) 技术是这些决策技术中最成熟的,很可能最快集成到目前部署的 CCS 上。在过去的两年中,LM 加拿大研发团队已开始致力于重新构建和优化概念验证 MSDF 算法,以建立一个原型,该原型将准备好集成到现有平台(特别是 CPF)上,并可以在 2000 年底之前执行实时跟踪和识别。这种重组和优化正在分阶段进行。