摘要 在过去的二十年里,人工智能 (AI) 方法已经应用于智能电网的各种应用,例如需求响应、预测性维护和负荷预测。然而,由于缺乏可解释性和透明度,人工智能仍然被认为是一个“黑匣子”,尤其是对于涉及许多参数的太阳能光伏 (PV) 预测而言。可解释人工智能 (XAI) 已成为智能电网领域的一个新兴研究领域,因为它解决了这一空白并有助于理解 AI 系统做出预测决策的原因。本文介绍了使用 XAI 工具(例如 LIME、SHAP 和 ELI5)进行太阳能光伏能源预测的几个用例,这些用例有助于将 XAI 工具用于智能电网应用。了解基于人工智能的预测模型的内部工作原理可以深入了解应用领域。这种洞察可以改进太阳能光伏预测模型并指出相关参数。
项目摘要:在这个项目中,我们旨在通过先进的深度学习技术从可穿戴脑电图 (EEG) 数据中解码人脑信号。我们的方法包括清理和预处理原始 EEG 数据以确保其质量,然后尝试各种深度学习模型,包括卷积/循环神经网络 (CNN/RNN) 和 LSTM,以准确分类人脑信号。我们使用准确度、精确度、召回率和 F1 分数等综合指标评估这些模型,并采用交叉验证以确保稳健的性能。为了增强我们模型的可解释性,我们专注于 SHapley Additive exPlanations (SHAP)、Local Interpretable Model-agnostic Explanations (LIME) 和 Grad-CAM 等方法,为决策过程提供见解。我们将提供 EEG 数据集,该数据集已获得适当的伦理批准,是我们之前使用消费者可穿戴设备进行的研究收集的。加入我们,共同打造未来的酷炫科技!
摘要 —可解释人工智能 (XAI) 旨在为用户提供可理解的解释。SHAP、LIME 和 Scoped Rules 等 XAI 算法计算机器学习预测的特征重要性。尽管 XAI 引起了广泛研究关注,但将 XAI 技术应用于医疗保健以指导临床决策具有挑战性。在本文中,我们对 XAI 方法给出的解释进行了比较,作为分析复杂电子健康记录 (EHR) 的第三级扩展。利用大规模 EHR 数据集,我们根据 XAI 模型估计的预测重要性比较 EHR 的特征。我们的实验结果表明,所研究的 XAI 方法会根据具体情况生成不同的顶级特征;它们在共享特征重要性方面的差异值得领域专家进一步探索,以评估人类对 XAI 的信任。索引词 —可解释的人工智能、黑盒、玻璃盒、机器学习、电子健康记录
虽然不是直接针对碳排放,但工业排放指令(IED)是调节污染排放的总体政策之一。最新的IED旨在促进新的和新兴技术的创新,并通过鼓励更绿色的实践来提高材料效率和脱碳。即使IED没有为排放设定总体目标限制,但它可以最大程度地减少污染以保护人们和环境的健康。IED适用于30,000多个主要的工业设施,这些工业设施生产钢,水泥,玻璃,石灰和陶瓷等商品。它还涵盖能源行业和废物管理。通过为所有这些基本材料设定规则,IED有助于降低建筑物的体现排放。
petrova矿山和地质大学“ St.伊万·里尔斯基(Ivan Rilski)摘要:作为采矿业的一个子行业,采石场还负责温室气体排放石灰石是用于建筑,建筑材料和工业应用的最常提取的矿物之一。消耗石灰石的一种常见方法是生产石灰,水泥,钢等。基于文献综述,将每吨石灰和水泥的碳排放量与采石操作的每吨石灰石的预期碳排放量进行了比较。使用CO 2等于每吨石灰石的CO 2等效度量计算了所研究采石场的碳排放,类似于其他采石场。创建了基于实际理论模型和经验规则的计算机脚本模型,旨在模拟采石操作的不同状态。对文献和建模结果的综述表明,与与石灰和水泥的生产相关的排放相比,所研究的采石场的碳排放量明显降低。此外,基于非线性优化模型,已经建立了与碳足迹减少采石作业相关的不同策略,以设计爆炸模式。这些实践可以作为评估与石灰岩采石场的直接和间接碳足迹的初步方式。此外,还研究了所选优化函数的效果。得出的结论是,与通过间接和直接排放方法获得的方法相比,基于采石场的直接碳足迹的最佳解决方案的向量可能会偏见。关键字:温室气体排放,碳足迹,石灰石采石,爆破,非线性优化引入气候变化是一个全球问题,它对世界上不同地区造成了许多负面影响。区域洪水,干旱季节降雨减少和不可逆的海洋温度升高正在对海洋生态系统造成灾难性损害。科学发展支持这样的理论,即全球气候因人类影响而发生变化,政府间气候变化(IPCC)集中于4种人类诱导的温室气体 - 二氧化碳,二氧化碳,氢氟化合物,一氧化氮和甲烷。二氧化碳(CO 2)的排放主要是由人类活动产生的,对生态系统和大气产生了全球后果。近几十年来,二氧化碳浓度的显着增加与全球变暖,气候条件的变化,海平面上升以及对生物多样性和人类健康的其他不利影响有关。此外,过度增加了温室气体到大气中的排放是全球气候变化的主要动力之一。jiao(2023)声称,二氧化碳排放量占总温室排放量的80%,其数量大大增加。此外,根据这项研究,自1946年以来,二氧化碳的排放迅速增加,得出的结论是,这是由于参与工业发展的国家数量的增加(Jiao,Jiao,
作为人工智能(AI)模型,尤其是深层神经网络,在各个领域都取得了成功,因此对它们的可解释性产生了关注。这些“黑匣子”模型通常会不透明地运行,因此很难理解其推理。缺乏解释性提出了可信赖,问责制和道德规范的问题,尤其是在医疗保健,金融和刑事司法等关键领域。本论文构成可解释的AI(XAI)作为一个跨学科领域,以应对技术,埃斯特尔,法律和设计挑战。提出了XAI方法的分类法,将其分类为可解释的模型,模型不合时宜的工具,特定于模型的工具,神经符号方法和可解释的生成AI(GenXAI)的可解释工具。诸如Shapley值,石灰和综合梯度之类的工具,并特别注意神经符号AI通过符号促进来增强神经网络可解释性的潜力。针对大型语言模型(LLM)的新兴XAI技术,例如检索增强生成(RAG)和代理抹布,以其能够获得可怜性和透明度的能力而探索。总结了这些工具的概述,其中根据定义的分类法和功能对每种方法进行分类。论文还探讨了用户体验(UX)的注意事项,重点关注具有可理解解释需求的数字系统的不同角色。XAI问题库是对库的研究,将各种问题,深度水平与量身定制的XAI工具相结合。法律和道德考虑,重点介绍了欧盟的GDPR和AI法案等法规,以及XAI如何支持合规性。最后,用于心脏病预测和解释的医疗保健领域中的石灰和抹布的经验表明了XAI的实际应用,展示了其在高风险场景中提高透明度和决策制定的能力。
该设施由两个相同的排放单元组成,分别指定为 U-00001 和 U-00002。每个排放单元都有一个排放源,即溜槽式批量燃烧水冷壁耐火材料 MSW 燃烧器。这些排放源分别指定为 ID 00001 和 00004。每个 MSW 燃烧器都由石灰浆干式洗涤器(控制 ID 分别为 00002 和 00005)与静电除尘器(控制 ID 分别为 00003 和 00006)串联控制。每个燃烧器控制列车都有一个排放点(分别为 ID 00001 和 00002)。每个排放单元都与两个过程相关;1) 燃烧天然气作为补充燃料(分别为过程 ID 001 和 003);2) 燃烧 MSW 和无害固体废物(分别为过程 ID 002 和 004)。这
可解释人工智能 (XAI) 领域已迅速成为一个蓬勃发展且成果丰硕的社区。然而,该领域一个不为人知、反复出现且公认的问题是缺乏对其术语的共识。特别是,每一项新贡献似乎都依赖于其自己的(通常是直观的)术语版本,例如“解释”和“阐释”。这种混乱阻碍了该领域进步的巩固,无法满足科学和监管要求,例如在比较方法或确定其对偏见和公平约束的遵从性时。我们提出了一个理论框架,它不仅为这些术语提供了具体的定义,而且还概述了产生解释和阐释所需的所有步骤。该框架还允许重新语境化现有贡献,以便可以衡量其范围,从而使它们与其他方法具有可比性。我们表明,该框架符合对解释、可解释性和评估指标的要求。我们提供了一个用例,展示了如何使用该框架来比较 LIME、SHAP 和 MDNet,确定它们的优点和缺点。最后,我们从我们的框架的角度讨论了 XAI 的相关趋势以及对未来工作的建议。