AUV NG 是法国军备总局 (DGA)、法国海军、泰雷兹公司和 Exail 于 2023 年开始的合作成果。这项工作的目的是优化两家制造商的解决方案的重复使用,并将开发的重点重新放在具有最高附加值的技术上,从而能够在只有一半大小的无人机中集中法国海军目前使用的 A-27 原型机的所有功能。作为扫雷和水下监视系统的关键要素,该无人机将携带泰雷兹未来一代声纳 SAMDIS 600 声纳以及 MMCM 计划的软件套件。 AUV NG 完全融入了法国海军目前正在实施的未来反水雷系统 (SLAM-F),将与根据该计划获得的指挥中心(特别是布雷斯特中心)协同执行任务,并可在未来的水雷战舰队舰船上实施。
➢这是一个欺骗深神经网络(DNN)的实验:在第二和第四张图像中,工程师仅保留了系统用于识别吉他和企鹅的系统的元素,并更改了其余的所有内容,以使系统仍然像吉他和企鹅一样“看到”他们。➢Goodfellow等人的作品。(2014)从普遍的扰动开始打开了进一步发展的大门(Moosavi-Dezfooli等人。2017)最近的一个像素攻击,该攻击显示了如何通过在输入图像中更改一个像素来欺骗神经网络。笔记本在这里一张像素攻击原始纸
● D. Gunning,可解释的人工智能(xAI),技术代表,国防高级研究计划局(DARPA)(2017)● AB Arrieta,等人。可解释的人工智能(XAI):概念、分类法、机遇和挑战,走向负责任的人工智能。信息融合 58(2020):82-115。● E. Tjoa、C. Guan,可解释的人工智能(XAI)调查:面向医学 XAI (2019)。arXiv:1907.07374。● LH Gilpin、D. Bau、BZ Yuan、A. Bajwa、M. Specter、L. Kagal,解释解释:机器学习可解释性概述 (2018)。 arXiv:1806.00069 ● FK Došilović、M. Brćić、N. Hlupić,可解释的人工智能:一项调查,载于:第 41 届信息和通信技术、电子和微电子国际会议 (MIPRO),2018 年,第 210-215 页。● A. Adadi、M. Berrada,窥视黑匣子内部:可解释的人工智能 (XAI) 调查,IEEE Access 6 (2018) 52138-52160。● O. Biran、C. Cotton,机器学习中的解释和论证:一项调查,载于:IJCAI-17 可解释人工智能 (XAI) 研讨会,第 8 卷,2017 年,第 1 页。● ST Shane、T. Mueller、RR Hoffman、W. Clancey、G. Klein,《人机交互系统中的解释:可解释人工智能的关键思想和出版物及参考书目的文献元评论概要》,国防高级研究计划局 (DARPA) XAI 计划技术代表 (2019)。● R. Guidotti、A. Monreale、S. Ruggieri、F. Turini、F. Giannotti、D. Pedreschi,《解释黑盒模型的方法调查》,ACM 计算调查 51 (5) (2018) 93:1–93:42。
机器学习方法在生物识别和个人信息处理(例如法医、电子医疗、招聘和电子学习)领域的重要性日益增加。在这些领域,基于机器学习方法构建的系统的白盒(人类可读)解释可能变得至关重要。归纳逻辑编程 (ILP) 是符号 AI 的一个子领域,旨在自动学习有关数据处理的声明性理论。从解释转换中学习 (LFIT) 是一种 ILP 技术,可以学习与给定黑盒系统等同的命题逻辑理论(在特定条件下)。本研究通过检查 LFIT 在特定 AI 应用场景中的可行性,迈出了将准确的声明性解释纳入经典机器学习的通用方法的第一步:基于使用机器学习方法生成的自动工具进行公平招聘,用于对包含软生物特征信息(性别和种族)的简历进行排名。我们展示了 LFIT 对这个特定问题的表达能力,并提出了一个可应用于其他领域的方案。
随着机器学习方法越来越多地用于增强人类决策能力,可解释人工智能 (XAI) 研究探索了将系统行为传达给人类的方法。然而,这些方法往往无法解释人类在与解释互动时的情感反应。面部情感分析研究人类面部的情绪表达,是了解用户如何参与解释的一个有前途的视角。因此,在这项工作中,我们的目标是 (1) 确定人们与 XAI 界面交互时哪些面部情感特征会很明显,以及 (2) 开发一个多任务特征嵌入,将面部情感信号与参与者对解释的使用联系起来。我们的分析和结果表明,当参与者未能有效地使用解释时,面部 AU1 和 AU4 以及唤醒的发生和值会增加。这表明面部情感分析应该纳入 XAI,以根据个人的互动风格个性化解释,并根据执行任务的难度调整解释。
摘要摘要人工智能(AI)和深度学习(DL)技术已彻底改变了疾病的检测,尤其是在医学成像(MI)中。这些技术在图像分类中表现出出色的性能,但它们融入临床实践中仍然逐渐逐步。一个重大挑战在于深神经网络(DNN)模型的不透明度,该模型在不解释其结构的情况下提供了预测。缺乏透明度在医疗保健行业中构成了严重的问题,因为对自动化技术的信任对于医生,患者和其他利益相关者至关重要。担心自动驾驶汽车事故中的责任与与医学成像中深度学习应用相关的责任相当。误报和假否定性等错误会对患者的健康产生负面影响。可解释的人工智能(XAI)工具旨在通过为预测模型提供可理解的见解来解决这些问题。这些工具可以增强对AI系统的信心,加速诊断过程,并确保遵守法律要求。在推进技术应用的动机的驱动下,这项工作对可解释的AI(XAI)和深度学习(DL)技术进行了全面审查,该技术是针对生物医学成像诊断的。它检查了最新方法,评估其临床适用性,并突出了关键挑战,包括可解释性,可伸缩性和整合到医疗保健中。此外,审查还确定了XAI研究中新兴趋势和潜在的未来方向,并根据其适合各种诊断任务的技术提供了结构化的分类。这些发现对于寻求准确和可靠的诊断支持,解决监管和道德考虑的政策制定者以及旨在设计旨在平衡创新,安全性和临床透明度的系统的AI开发人员的医疗保健专业人员来说是无价的。
为了满足对安全物联网网络的关键需求,本研究提出了一个可扩展且轻巧的课程学习框架,并使用可解释的AI(XAI)技术(包括石灰)来增强,以确保透明度和适应性。所提出的模型采用了在课程学习的每个阶段使用的新型神经网络体系结构,以有效地捕获和专注于短期和长期的时间依赖性,提高学习稳定性并提高准确性,同时保持轻量级和强大的对依次IOT数据中的噪声。通过分阶段学习实现了鲁棒性,在该学习中,模型通过删除低相关功能和优化性能来迭代地完善自己。工作流程包括边缘优化的量化和修剪,以确保可以轻松地部署在边缘iot设备中的便携性。合并随机森林,XGBoost和分阶段学习基础的合奏模型进一步增强了概括。实验结果表明,CIC-IOV-2024和CIC-APT-IOIT-2024数据集的精度为98%,边缘IOIT的数据集和97%的数据集,将此框架确定为具有稳健,透明和高性能解决方案,以实现IoT网络安全性。
Global X Management (AUS) Limited(“Global X”)(澳大利亚金融服务许可证号 466778,ACN 150 433 828)是产品发行人。任何零售产品的权益要约只能在产品披露声明(PDS)中提出或附有产品披露声明。对于每种零售产品,Global X 都准备了一份目标市场确定(TMD)。每份 PDS 和 TMD 均可在 www.globalxetfs.com.au 上找到。本网站上的信息仅为一般性信息,并未考虑您的个人目标、财务状况或需求。在根据任何信息采取行动之前,您应考虑该信息是否适合您的目标、财务状况或需求,并考虑根据您的具体情况寻求独立的财务、法律、税务和其他相关建议。任何投资决策都应在获取并考虑相关 PDS 和 TMD 后做出。投资 Global X 发行的任何产品均存在投资风险,包括可能延迟还款以及投资收入和本金损失。投资的价值或回报会波动,投资者可能会损失部分或全部投资。过去的表现并不是未来表现的可靠指标。
摘要人工智能(AI)纳入地球科学的整合已在空间建模和气候引起的危害评估的变革时代迎来了。这项研究探讨了可解释的AI(XAI)的应用,以解决传统的“ Black-Box” AI模型的固有局限性,从而强调了高风险领域(例如自然危害管理)中的透明度和可解释性。通过分析水文学危害(包括干旱,洪水和滑坡),这项工作突出了XAI提高预测准确性并促进可行见解的潜力越来越大。该研究综合了XAI方法论的进步,例如注意力模型,Shapley添加说明(SHAP)和广义添加剂模型(GAM)及其在空间危害预测和缓解策略中的应用。此外,该研究确定了数据质量,模型可传递性和实时解释性的挑战,这为将来的研究提出了途径,以增强XAI在决策框架中的效用。这一综合概述有助于在XAI采用XAI方面的弥合差距,在快速的环境变化时代,可以实现强大,透明和道德的方法来进行气候危害评估。