摘要:机器学习 (ML) 已显示出加速各种材料系统合成规划的潜力。然而,由于缺乏用于开发材料合成 ML 工作流程的系统方法或启发式方法,许多材料科学家仍然无法使用 ML。在这项工作中,我们报告了一种选择 ML 算法来训练预测纳米材料合成结果的模型的方法。具体来说,我们开发并使用了一个自动化批量微反应器平台来收集大量 CdSe 量子点热注射合成结果的实验数据集。此后,该数据集用于训练使用各种 ML 算法预测合成结果的模型。针对不同大小和添加不同噪声量的实验数据集,比较了这些算法的相对性能。基于神经网络的模型显示出对吸收和发射峰的最准确预测,而预测半峰全宽的级联方法被证明优于直接方法。SHapley Additive exPlanations (SHAP) 方法用于确定不同合成参数的相对重要性。我们的分析表明,SHAP 重要性分数高度依赖于特征选择,并强调了开发固有可解释模型以从材料合成的 ML 工作流程中获取见解的重要性。
交通事故仍然是死亡,伤害和高速公路严重中断的主要原因。理解这些事件的促成因素对于提高道路网络安全性至关重要。最近的研究表明,预性建模在洞悉导致事故的因素方面具有效用。但是,缺乏重点放在解释复杂的机器学习和深度学习模型的内部工作以及各种特征影响事故词典模型的方式。因此,这些模型可能被视为黑匣子,而利益相关者可能不会完全信任他们的发现。这项研究的主要目的是使用各种转移学习技术创建预测模型,并使用Shapley值对最有影响力的因素提供见解。预测合格中伤害的严重程度,多层感知器(MLP),卷积神经网络(CNN),长期短期记忆(LSTM),残留网络(RESNET),EfficityNetB4,InceptionV3,InceptionV3,极端的Incep-Tion(Xpection)(Xpection)(Xpection)和Mobilenet和Mobilenet。在模型中,MobileNet显示出最高的结果,精度为98.17%。此外,通过了解不同的特征如何影响事故预测模型,研究人员可以更深入地了解导致事故的造成的范围,并制定更有效的干预措施以防止发生事故。
摘要 - 在非驾驶飞机(UAV)的动态和不断变化的领域中,最重要的重要性在于保证弹性和清醒的安全措施。这项研究强调了实施零信托架构(ZTA)的必要性,以增强无人机的安全性(UAVS)的安全性,从而脱离了可能暴露于脆弱性的传统外围防御能力。零信任体系结构(ZTA)范式需要一个严格且连续的过程来验证所有网络实体和通信。我们方法在检测和识别非驾驶飞机(UAV)方面的准确性为84.59%。这是通过在深度学习框架内利用射频(RF)信号来实现的,这是一种独特的方法。精确的标识在零信任体系结构(ZTA)中至关重要,因为它决定了网络访问。此外,使用可解释的人工智能(XAI)工具,例如Shapley添加说明(SHAP)和局部可解释的模型 - 不合Snostic解释(LIME),这有助于改善模型的透明度和可解释性。遵守零信任体系结构(ZTA)标准可以确保无人驾驶汽车(UAV)的分类是可验证且可理解的,从而增强了无人机领域内的安全性。索引术语 - 零信任体系结构,无人机检测,RF信号,深度学习,塑造,石灰,可解释的AI,空域安全
近年来,增强学习(RL)已成为一种有力的工具,可在光网络(例如路由和波长分配(RWA)[1]等光网络中解决复杂而染色的优化问题[1],路由,调制和频谱分配(RMSA)[2]以及虚拟网络嵌入[3]。RL实现的性能效果表明其在现实世界中的应用潜力。但是,与其他机器学习(ML)算法类似,RL模型具有黑盒性质,使它们难以解释。这种特征使RL模型难以信任,因此在实际的光网部署中采用。对于监督的ML模型,Shap(Shapley添加说明)[4]是一种可解释的AI方法,已被广泛采用。Shap是一种基于合作游戏理论的方法,用于量化单个特征对模型决策过程的影响。Shap值提供了对每个功能的相对重要性(影响)的见解,从而估算了它们如何对模型的输出做出贡献。将这种解释性框架应用于传播质量(QOT)预测任务时,已显示出有希望的属性[5]。最近,由于需要解释和使RL模型的决策过程透明的驱动,可解释的RL(XRL)受到了越来越多的关注。在光网络的上下文中,XRL的概念仍然相对尚未探索。先前建议通过反向工程网络状态[6]或网络中资源使用分析(链接)来解释和解释RL模型的决策[1,7]。但是,这些研究并未分析不同特征如何影响RL药物的决策。因此,在光网络背景下,RL代理学到的政策仍然存在一段差距。这至关重要,因为网络运营商需要在其在实际网络中部署之前了解RL学习策略背后的推理。在这项工作中,我们旨在利用Shap(Shapley添加说明)[4]来解释应用于RMSA问题的RL模型的行为。为此,我们提出了一种使用训练有素的RL代理的观察和行动来以有监督的学习方式训练ML模型的方法。由Shap使用所得的ML模型来提取解释。与[2]中的RMSA问题的每个组件分别求解,RL代理解决路由问题,基于路径长度的调制格式选择以及基于第一拟合策略的频谱分配。我们分析了该问题的三种变化,改变了奖励函数和选择RL代理的不可行的动作的可能性。我们特别有兴趣解释重要的网络和LightPath请求特征,该特征导致RL模型拒绝该请求。结果允许我们确定哪些功能和哪些值范围影响RL代理接受或拒绝LightPath请求。我们观察到,通过更改奖励功能,RL策略会更改拒绝请求时所考虑的重要功能。引入了防止RL模型采取不可行的措施的掩码,使功能的重要性更加均匀地分布在不同的路由选项上。我们认为,提出的方法对于增加将在真实网络中部署的RL模型的可信度可能是有价值的。
摘要:疟疾继续构成重大的全球健康威胁,抗药性疟疾的出现加剧了挑战,强调了对新抗疟药的迫切需求。虽然已经将几种机器学习算法应用于抗性化合物的定量结构 - 活性关系(QSAR)建模,但仍需要更需要进行更可解释的模拟,以提供有关药物作用的潜在机制,从而促进新化合物的合理设计。本研究使用轻梯度增强机(LightGBM)开发了QSAR模型。该模型与沙普利添加剂解释(SHAP)集成在一起,以增强可靠性。LightGBM模型在预测抗性激活方面表现出了卓越的性能,其AC屏性为86%,精度为85%,灵敏度为81%,特异性为89%,F1得分为83%。SHAP分析确定关键分子描述符,例如MaxDO和GATS2M,是抗疟疾活性的重要促进者。LightGBM与Shap的整合不仅增强了QSAR模型的预测性交流性,而且还为特征的重要性提供了宝贵的见解,从而有助于新的抗疟药的合理设计。这种方法弥合了模型准确性和可解释性之间的差距,为有效有效的药物疾病提供了强大的框架,以抵抗耐药性疟疾菌株。
强化学习越来越多地应用于飞行控制任务,目的是开发真正自主的飞行器,能够穿越高度变化的环境并适应未知情况或可能的故障。然而,这些日益复杂的模型和算法的开发进一步降低了我们对其内部工作原理的理解。这会影响算法的安全性和可靠性,因为很难甚至不可能确定它们的故障特征以及它们在从未测试过的情况下会如何反应。通过开发可解释的人工智能和可解释的强化学习方法(如 SHapley 加法解释),可以弥补这种理解的不足。此工具用于分析 Actor-Critic 增量双启发式编程控制器架构在非线性飞行条件下(例如在高攻角和大侧滑角下)执行俯仰速率或滚转速率跟踪任务时学习的策略。之前曾使用相同的分析工具对相同的控制器架构进行过探索,但仅限于标称线性飞行状态,并且观察到控制器学习了线性控制律,即使其人工神经网络应该能够近似任何函数。有趣的是,这篇研究论文发现,即使在非线性飞行状态下,这种控制器架构学习准线性控制律仍然是更理想的,尽管它似乎不断修改线性斜率,就好像它是增益调度技术的一个极端情况一样。
在这项研究中,使用了极端梯度提升(XGBoost)和光梯度提升(LightGBM)al-gorithms用间接太阳能干燥机的香蕉切片的干燥特性进行模型。建立了自变量(温度,水分,产品类型,水流量和产品质量)与因变量(能源消耗和降低)之间的关系。用于耗能,XGBoost在训练过程中以0.9957的r 2为0.9957,在测试过程中表现出优异的表现,在训练期间的最小MSE为0.0034,在训练期间为0.0008,在测试阶段表明高预测性获得率和低错误率。相反,LGBM显示较低的R 2值(0.9061训练,0.8809测试)和较高的MSE在训练过程中的MSE为0.0747,在测试过程中0.0337显示了0.0337,反映了较差的表现。同样,对于收缩预测,XGBOOST优于LGBM,较高的R 2(0.9887训练,0.9975测试)和较低的MSE(0.2527培训,0.4878测试)证明了LGBM。统计数据表明,XGBoost定期胜过LightGBM。基于游戏理论的Shapley功能表明,温度和产品类型是能源消耗模型的最具影响力的特征。这些发现说明了XGBoost和LightGBM模型在食品干燥操作中的实际适用性,以优化干燥调节,提高产品质量并降低能耗。
使用人工智能(AI)的数据驱动建模被设想为零触摸网络(ZTN)管理的关键启用技术。具体来说,AI表现出了自动化和建模复杂无线系统的威胁检测机制的巨大潜力。但是,目前以数据驱动的AI系统缺乏决策的透明度和问责制,并确保从参与实体收集的数据的可靠性和可信赖性是威胁检测和决策制定的重要障碍。为此,我们将智能合约与可解释的AI(XAI)集成在一起,以设计ZTN的强大网络安全框架。提议的框架使用区块链和智能合同的访问控制和身份验证机制来确保参与实体之间的信任。此外,使用收集的数据,我们设计了数字双胞胎(DTS),以模拟ZTN环境中的攻击检测操作。具体来说,为了提供一个用于分析和开发入侵检测系统(IDS)的平台,DTS配备了各种过程感知攻击方案。基于自我注意力的长期记忆(SALSTM)网络用于评估所提出的框架的攻击检测功能。此外,使用Shapley添加说明(SHAP)工具可以实现所提出的基于AI的ID的解释性。使用N-Baiot和自我生成的DTS数据集的实验结果证实了所提出的框架优于某些基线和最新技术。
摘要:中风是一种危险的医学障碍,当血液流向大脑的流动被破坏时,会导致神经系统障碍。这是全球范围内的巨大威胁,具有严重的健康和经济影响。为了解决这个问题,研究人员正在开发自动中风预测算法,这将允许早期干预甚至可以挽救生命。随着人口年龄的增长,处于中风风险的人数正在增长,使精确有效的预测系统越来越关键。wo在与六个众所周知的分类器的比较检查中,根据与概括能力和预测准确性有关的指标,探索了所提出的ML技术的有效性。在本研究中,我们还研究了两种可解释的技术,即形状和石灰。Shap(Shapley添加说明)和石灰(局部可解释的模型 - 不合Snostic解释)是建立良好且可靠的方法,用于解释模型决策,尤其是在医疗行业中。实验的发现表明,更复杂的模型优于更简单的模型,顶部模型获得了几乎91%的精度,而其他模型则达到了83-91%的精度。所提出的框架(包括全球和局部可解释的方法)可以帮助标准化复杂的模型并洞悉其决策,从而增强中风护理和治疗。索引术语 - 中风预测,可解释的机器学习,形状,石灰
阿尔茨海默病纵向进化预测 (TADPOLE) 挑战赛是迄今为止在受试者数量、考虑的特征和挑战参与者方面最全面的挑战赛。TADPOLE 的最初目标是确定最具预测性的数据、特征和方法,以预测有患阿尔茨海默病风险的受试者的进展。 该挑战赛成功地将基于树的集成方法(例如梯度提升和随机森林)识别为预测阿尔茨海默病 (AD) 临床状况的最佳方法。然而,挑战赛的结果仅限于哪种数据处理和方法组合表现出最佳准确性;因此,很难确定方法对准确性的贡献。所有挑战赛参与者方法都全局地量化了特征重要性。此外,TADPOLE 提供了一般性的答案,重点是提高性能,而忽略了可解释性等重要问题。本研究的目的是深入探索 TADPOLE Challenge 前三大方法的模型,以在共同框架内进行公平比较。此外,对于这些模型,研究了对 AD 临床状况预后最有意义的特征,并量化了每个特征对方法准确性的贡献。我们对这些方法为何能达到如此准确性提供了合理的解释,并研究了这些方法是否使用与临床知识一致的信息。最后,我们通过分析 SHapley Additive exPlanations (SHAP) 值来解决这些问题,这种技术最近在可解释人工智能 (XAI) 领域引起了越来越多的关注。