摘要:机器学习 (ML) 已显示出加速各种材料系统合成规划的潜力。然而,由于缺乏用于开发材料合成 ML 工作流程的系统方法或启发式方法,许多材料科学家仍然无法使用 ML。在这项工作中,我们报告了一种选择 ML 算法来训练预测纳米材料合成结果的模型的方法。具体来说,我们开发并使用了一个自动化批量微反应器平台来收集大量 CdSe 量子点热注射合成结果的实验数据集。此后,该数据集用于训练使用各种 ML 算法预测合成结果的模型。针对不同大小和添加不同噪声量的实验数据集,比较了这些算法的相对性能。基于神经网络的模型显示出对吸收和发射峰的最准确预测,而预测半峰全宽的级联方法被证明优于直接方法。SHapley Additive exPlanations (SHAP) 方法用于确定不同合成参数的相对重要性。我们的分析表明,SHAP 重要性分数高度依赖于特征选择,并强调了开发固有可解释模型以从材料合成的 ML 工作流程中获取见解的重要性。
摘要:自动驾驶的最新进展伴随着损害自动驾驶汽车网络(AVS)的网络安全问题,激发了使用AI模型来检测这些网络上的异常情况。在这种情况下,用于解释这些异常检测AI模型的行为的可解释AI(XAI)的用法至关重要。这项工作介绍了一个综合框架,以评估AVS内的黑框XAI技术,以促进对全球和局部XAI方法的检查,以阐明XAI技术的决定,以解释AI模型对异常AV行为进行分类的AI模型的行为。通过考虑六个评估指标(描述性准确性,稀疏性,稳定性,效率,稳健性和完整性),该框架评估了两种众所周知的黑盒XAI技术,摇滚和石灰,涉及应用XAI技术,以应用XAI技术来确定对隔离式跨度的重要跨度的自动范围,并确定主要的分类,并跨越了六个驱动器。 Veremi和传感器。这项研究推进了在自主驾驶系统中用于现实世界异常检测的黑盒XAI方法的部署,从而有价值的见解对此关键领域内当前的Black-Box XAI方法的优势和局限性有了宝贵的见解。
本研究探讨了轻度至中度外伤性脑损伤(TBI)患者脑出血(ICH)的进展。它旨在通过初始CT扫描来预测ICH进展的风险,并确定与该进展相关的临床因素。在2010年1月至2021年12月之间,对TBI患者进行了回顾性分析,重点介绍了初步的CT评估和人口统计,合并症和病史数据。ich被分为核内过血(IPH),脊柱出血(pH)和蛛网膜下腔出血(SAH)。在我们的研究队列中,我们确定了650名TBI患者的ICH进展率为22.2%。随机森林算法确定了诸如Petechial出血(pH)和反合型损伤的变量是ICH进展的重要预测指标。XGBoost算法结合了通过Shap值鉴定的密钥变量,表现出强大的性能,达到了0.9的AUC。此外,使用大量的外形值的个人风险评估图在视觉上表示每个变量对ICH进展风险的影响,提供个性化的风险概况。这种方法以0.913的AUC强调,强调了该模型在预测ICH进展方面的精度,这标志着通过早期鉴定ICH进展风险来增强TBI患者管理的重要一步。
摘要 - 在非驾驶飞机(UAV)的动态和不断变化的领域中,最重要的重要性在于保证弹性和清醒的安全措施。这项研究强调了实施零信托架构(ZTA)的必要性,以增强无人机的安全性(UAVS)的安全性,从而脱离了可能暴露于脆弱性的传统外围防御能力。零信任体系结构(ZTA)范式需要一个严格且连续的过程来验证所有网络实体和通信。我们方法在检测和识别非驾驶飞机(UAV)方面的准确性为84.59%。这是通过在深度学习框架内利用射频(RF)信号来实现的,这是一种独特的方法。精确的标识在零信任体系结构(ZTA)中至关重要,因为它决定了网络访问。此外,使用可解释的人工智能(XAI)工具,例如Shapley添加说明(SHAP)和局部可解释的模型 - 不合Snostic解释(LIME),这有助于改善模型的透明度和可解释性。遵守零信任体系结构(ZTA)标准可以确保无人驾驶汽车(UAV)的分类是可验证且可理解的,从而增强了无人机领域内的安全性。索引术语 - 零信任体系结构,无人机检测,RF信号,深度学习,塑造,石灰,可解释的AI,空域安全
通过人工智能技术估算混凝土特性已被证明是建筑领域节省时间和成本的有效方法。超高性能混凝土 (UHPC) 的制造基于多种成分的组合,从而产生一种非常复杂的新鲜和硬化形式的复合材料。成分越多,可能的组合、特性和相对混合配比就越多,导致难以预测 UHPC 行为。本研究的主要目的是开发机器学习 (ML) 模型来预测 UHPC 的流动性和抗压强度。因此,当前的研究采用了复杂而有效的人工智能方法。为此,应用了一个名为决策树 (DT) 的单独 ML 模型和名为引导聚合 (BA) 和梯度提升 (GB) 的集成 ML 算法。还采用了诸如判定系数 (R2)、均方根误差 (RMSE) 和平均绝对误差 (MAE) 之类的统计分析来评估算法的性能。结论是,GB 方法可以适当地预测 UHPC 的流动性和抗压强度。DT 技术的 R 2 值较高,分别为抗压和流动性的 0.94 和 0.95,误差值较小,与其他 R 2 值较低的算法相比具有更高的精度。SHAP 分析表明,石灰石粉含量和固化时间分别对 UHPC 的流动性和抗压强度具有最高的 SHAP 值。本研究成果将有利于建筑行业的学者快速有效地确定 UHPC 的流动性和抗压强度。
1,2技术科学学院 - Sebha 3高级技术工程研究所 - Sebha摘要:随着人工智能(AI)继续推动各个领域的进步,AI模型中对解释性的需求变得越来越重要。许多最先进的机器学习模型,尤其是深度学习体系结构,都是“黑匣子”,使他们的决策过程难以解释。可解释的AI(XAI)旨在提高模型透明度,确保AI驱动的决策是可以理解的,可信赖的,并且与道德和监管标准保持一致。本文探讨了AI解释性的不同方法,包括本质上可解释的模型,例如决策树和逻辑回归,以及诸如Shap(Shapley添加说明)和Lime(局部可解释的模型 - 敏捷的解释)之类的事后方法。此外,我们讨论了解释性的挑战,包括准确性和可解释性之间的权衡,可伸缩性问题以及特定领域的要求。本文还重点介绍了XAI在医疗保健,金融和自治系统中的现实应用。最后,我们研究了未来的研究方向,强调了混合模型,因果解释性和人类协作。通过培养更容易解释的AI系统,我们可以增强数据科学应用程序中的信任,公平性和问责制。关键字:可解释的AI(XAI),可解释性,机器学习,黑盒模型,模型透明度,摇摆,石灰,道德AI,可信赖的AI,事后解释性,偏置缓解性,调节性,监管合规性,人类 - ai相互作用。
拒绝服务 (DDoS) 攻击可能会对在这些网络上运行的联邦学习模型的运行产生负面影响。当前检测 DDoS 的方法主要侧重于保护设备和数据,而忽略了模型保护。在本文中,我们利用并调整了联邦可解释人工智能 (FedXAI),这是一种使用 SHapley Additive exPlanations (SHAP) 设计的联邦学习,以增强物联网网络上联邦学习中的 DDoS 检测和解释。FedXAI 为模型提供了可解释的见解,这对于
为支持能源转型和遏制气候变化,全球范围内的举措已导致过去十年安装的可再生分布式发电机 (DG) 数量大幅增长,其中光伏 (PV) 系统是增长最快的技术。然而,众所周知,电网中光伏渗透率高会导致电压波动和线路拥塞等许多运行问题,这些问题可以通过利用光伏系统的无功功率能力来缓解。为此,我们建议使用人工神经网络 (ANN) 来预测光伏系统中的最佳无功功率调度,方法是以集中式或分散式的方式从交流最优功率流 (ACOPF) 解决方案中学习近似输入输出映射。在分散控制的情况下,我们利用可解释人工智能 (XAI) 技术 Shapley 加法解释 (SHAP) 来识别对每个单独系统的最佳调度有显著影响的非本地电网状态测量值。通过基于 CIGRE 中压配电网的案例研究,对集中式和分散式 ANN 控制器进行了评估,并与基线控制策略进行了比较。结果表明,两种基于 ANN 的控制器均表现出优异的性能,可防止基线策略遇到的电压问题和线路拥塞,同时与固定功率因数控制相比,可节省 0.44% 的能源。通过利用 ANN 和 SHAP,所提出的用于无功功率控制的分散式控制器能够实现 ACOPF 级性能,同时促进数据隐私并减少计算负担。
机器学习提供了适合探索各种医学研究问题的多种技术,但具有凝聚力的协同框架可以促进对统一模型开发和解释中新方法的整合和理解。因此,我们引入了医学人工智能工具箱(MAIT),这是一种可解释的开源Python管道,用于在表格数据集上开发和评估二进制分类,回归和生存模型。MAIT解决了关键挑战(例如,高维度,类不平衡,混合变量类型和缺失),同时促进报告中的透明度(Tripod+AI兼容)。为初学者提供自动配置,并为专家提供可自定义的源代码,MAIT简化了两个主要用例:Discovery(通过统一评分通过统一评分的特征重要性,例如Shapley添加性解释 - Shap -Shap)和预测(模型开发和使用具有优化解决方案的模型开发和部署)。此外,MAIT提出了新技术,包括对二进制分类中概率阈值的微调,将累积危险曲线转换为二进制分类的翻译,对混合数据类型的模型解释的增强可视化以及通过半纯粹的学习进行审查,以适应广泛的数据约束和研究设计。我们使用四个开放访问数据集在GitHub上提供详细的教程,以证明如何使用MAIT来改善医学研究中ML模型的实施和解释。
机器学习提供了适合探索各种医学研究问题的多种技术,但具有凝聚力的协同框架可以促进对统一模型开发和解释中新方法的整合和理解。因此,我们引入了医学人工智能工具箱(MAIT),这是一种可解释的开源Python管道,用于在表格数据集上开发和评估二进制分类,回归和生存模型。MAIT解决了关键挑战(例如,高维度,类不平衡,混合变量类型和缺失),同时促进报告中的透明度(Tripod+AI兼容)。为初学者提供自动配置,并为专家提供可自定义的源代码,MAIT简化了两个主要用例:Discovery(通过统一评分通过统一评分的特征重要性,例如Shapley添加性解释 - Shap -Shap)和预测(模型开发和使用具有优化解决方案的模型开发和部署)。此外,MAIT提出了新技术,包括对二进制分类中概率阈值的微调,将累积危险曲线转换为二进制分类的翻译,对混合数据类型的模型解释的增强可视化以及通过半纯粹的学习进行审查,以适应广泛的数据约束和研究设计。我们使用四个开放访问数据集在GitHub上提供详细的教程,以证明如何使用MAIT来改善医学研究中ML模型的实施和解释。