复杂的网络威胁的兴起刺激了入侵检测系统(IDS)的进步,这对于实时识别和减轻安全漏洞至关重要。传统ID通常依赖于复杂的机器学习算法,尽管其精确度很高,这些算法仍缺乏透明度,从而产生了“黑匣子”效应,从而阻碍了分析师对他们决策过程的理解。可解释的人工智能(XAI)通过提供可解释性和透明度,提供了一个有希望的解决方案,使安全专业人员能够更好地理解IDS模型。本文对XAI在ID中的集成进行了系统的综述,重点是提高网络安全的透明度和可解释性。通过对最近的研究的全面分析,本综述确定了常用的XAI技术,评估了它们在IDS框架中的有效性,并检查了它们的收益和局限性。的发现表明,基于规则和基于树的XAI模型是其可解释性的首选,尽管具有检测准确性的权衡仍然具有挑战性。此外,该评论突出了标准化和可扩展性中的关键差距,强调了对混合模型和实时解释性的需求。本文以未来研究方向的建议结束,提出了针对ID,标准化评估指标以及优先级安全和透明度的道德框架量身定制的XAI技术的改进。本评论旨在告知研究人员和从业者当前的趋势和未来利用XAI提高ID的有效性,促进更透明,更弹性的网络安全景观方面的机会。
本文介绍了可解释人工智能 (XAI),这是提高 ML 系统可解释性和可信度的必要解决方案。本文通过两个关键领域的案例研究探讨了 XAI 的重要性:制造业和医疗保健。第一个案例涉及预测性维护应用程序,该应用程序使用 XAI 通过梯度提升决策树预测机器故障的可能性,从而为优化生产力提供详细建议。第二个案例研究基于医疗保健部门。用于 AI 模型解释的 LIME 和 SHAP 工具增强了人们对 AI 辅助医疗诊断的糖尿病预测有效性的信任。这两个案例都证明 XAI 有助于更好地理解所展示的机器学习模型的工作原理,并符合道德决策和监管要求。因此,在本文的最后一部分,作者讨论了当前形式的 XAI 的一些缺点以及该领域的潜在进步,包括水平性和更好地融入使用 AI 的系统。这一发现支持使用 XAI 在众多行业中促进更透明、更负责任和更值得信赖的 AI 应用。
摘要:我们提出了一个可解释的人工智能模型,该模型可用于解释客户购买或放弃非寿险的原因。该方法包括将相似性聚类应用于从高精度 XGBoost 预测分类算法获得的 Shapley 值。我们提出的方法可以嵌入到基于技术的保险服务 (Insurtech) 中,从而可以实时了解对客户决策影响最大的因素,从而主动洞察他们的需求。我们通过对保险微保单购买数据进行的实证分析证明了我们模型的有效性。研究了两个方面:购买保险单的倾向和现有客户流失的风险。分析结果表明,可以根据一组相似的特征有效、快速地对客户进行分组,这可以很好地预测他们的购买或流失行为。
摘要:裂纹表征是工业部件和结构的 NDT&E(无损检测与评估)的核心任务之一。如今,执行此任务所需的数据通常使用超声相控阵收集。许多超声相控阵检查都是自动化的,但对其产生的数据的解释却不是。本文提供了一种设计可解释的 AI(增强智能)以应对这一挑战的方法。它描述了一个名为 AutoNDE 的 C 代码,它包括一个基于改进的全聚焦方法的信号处理模块,该方法可创建被评估样本的一系列二维图像;一个图像处理模块,用于过滤和增强这些图像;以及一个可解释的 AI 模块 - 决策树,它选择可能存在裂纹的图像,将那些看起来代表相同裂纹的图像分组,并为每个组生成一份可能的检查报告,供人工检查员审阅。AutoNDE 已在实验室收集的 16 个数据集上进行了训练,这些数据集通过对带有大型光滑平面缺口(包括嵌入式和表面破损)的钢样本进行成像而收集。它已在另外两个类似的数据集上进行了测试。本文介绍了此次训练和测试的结果,并详细描述了一种处理超声波数据中主要误差源(样本表面的起伏)的方法。
这项回顾性队列研究使用了香港公共医疗机构的电子健康记录。我们纳入了 18-65 岁无 MACE 的患者,这些患者在首次使用抗精神病药物前三年内曾患过两种或两种以上慢性疾病。研究考虑了基线特征,例如年龄、性别、慢性病史、抗精神病药物使用史和前一年的服药史。结果是主要不良心血管事件 (MACE),包括中风、急性心肌梗死 (AMI) 和心血管相关死亡 (CV 死亡)。根据抗精神病药物处方的初始年份,将数据集按 7:3 的比例随机分为训练和验证子集。使用条件推断生存树 (CISTree) 来识别 MACE 风险组。使用 5 倍交叉验证对十个机器学习模型进行超参数优化训练,并在验证集上进行验证。我们进行了时间依赖性的 ROC 曲线分析、校准图和决策曲线分析图,分别比较模型的判别能力、校准和临床应用价值。使用时间相关变量重要性、部分依赖图和 SHAP 图来解释所选模型。
摘要随着采用可解释的AI(XAI)的采用,继续扩展,解决其隐私含义的紧迫性强大。尽管在AI隐私性和解释性方面进行了越来越多的研究,但对保护隐私模型的解释几乎没有关注。本文介绍了有关模型解释及其对策的隐私攻击的第一次彻底调查。我们对这一领域的贡献包括对研究论文的彻底分析,并通过相关的分类法进行了促进基于目标解释的隐私攻击和对策的分类。这项工作还包括对隐私泄漏原因的初步调查。最后,我们讨论了分析中发现的未解决的问题和前瞻性研究方向。这项调查旨在成为研究界的宝贵资源,并为该领域的新手提供明确的见解。为了支持正在进行的研究,我们建立了一个在线资源存储库,该存储库将通过新的和相关的发现不断更新。
1 沙特阿拉伯艾卜哈国王哈立德大学计算机科学学院信息学与计算机系统系,2 安德森大学工程学院,美国南卡罗来纳州安德森,3 巴基斯坦巴哈瓦尔布尔伊斯兰大学计算机科学与信息技术系,4 沙特阿拉伯阿尔科巴尔穆罕默德·本·法赫德王子大学计算机工程与科学学院人工智能系,5 沙特阿拉伯利雅得诺拉·宾特·阿卜杜勒拉赫曼公主大学计算机与信息科学学院信息系统系,6 沙特阿拉伯阿尔哈吉萨塔姆·本·阿卜杜勒阿齐兹王子大学计算机工程与科学学院计算机科学系,7 沙特阿拉伯利雅得阿尔玛雷法大学应用科学学院计算机科学与信息系统系
早期周期的电池寿命预测对于研究人员和制造商检查产品质量并促进技术开发至关重要。机器学习已被广泛用于构建数据驱动的SO,以进行高准确性预测。但是,电池的内部机制对许多因素敏感,例如充电/放电协议,制造/存储条件和使用模式。这些因素将引起状态转变,从而降低数据驱动方法的预测准确性。转移学习是一种有前途的技术,它通过共同利用来自各种来源的信息来克服这种困难并实现准确的预测。因此,我们开发了两种转移学习方法:贝叶斯模型融合和加权正交匹配的追求,从策略性地将先验知识与目标数据集的有限信息相结合,以实现出色的预测性能。从我们的结果中,我们的转移学习方法通过适应目标域而将根平方的错误减少了41%。此外,转移学习策略确定了不同电池组上有影响力的特征的变化,因此从数据挖掘的角度删除了电池降解机制和状态过渡的根本原因。这些发现表明,我们工作中提出的转移学习策略能够获取跨多个数据源来解决专业问题的知识。
自主系统(例如车辆,无人机和机器人)迅速整合到各个部门中,带来了有关其决策过程的重大道德挑战。本文研究了可解释的AI(XAI)在解决这些挑战中的作用,尤其是在发生事故的问责制以及在自动化环境中人类监督的必要性方面的作用。我们讨论了透明度的关键道德含义,强调了Xai如何弥合复杂算法的决策和公众理解之间的差距,从而促进了对这些技术的信任。本文还概述了当前的AI安全监管框架,分析了它们在促进负责任创新方面的有效性。此外,我们研究了不透明算法的后果,尤其是在赌注异常高的生命危机应用中。通过对案例研究的分析,我们展示了组织如何成功实施XAI,以增强其自主系统中的安全措施并维护道德责任。最终,本研究主张将XAI作为发展负责任的自主技术的重要组成部分,确保问责制和维护越来越定义的自动化定义的时代。