摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,深度学习的黑箱性质仍未解决,许多机器决策仍然知之甚少。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望(1)临床医生和从业者随后可以谨慎对待这些方法;(2)对可解释性的洞察将更多地考虑医疗实践;(3)鼓励推动基于数据、数学和技术的医学教育。
AI/ML模型通常被视为“黑匣子”,这是由于不透明的模型训练过程并挑战了破译的边缘效应。解释和解释模型可能是一个重大挑战。SR 11-7要求将实施该理论的模型方法和处理组件,包括数学规范和数值技术和近似值,应详细说明,并特别注意优点和局限性。该指南还强调了将模型构成有效挑战的重要性,因为其概念性的声音是独立验证的关键方面。通过遵循SR 11-7,我们认为可以使用特征重要性分析,本地和全球解释性等方法来解决与可解释性和解释性有关的问题。
• Transformer 架构 • 预训练(数据收集和学习目标) • 微调技术和数据(对齐、RLHF、PETM) • 评估(人工和自动) • 情境学习 • 可解释性 • 应用(搜索、对话代理)
由于移动服务程序之间的竞争日益增加,客户流失的预测一直在引起人们的重大关注。机器学习算法通常用于预测流失;但是,由于客户数据结构的复杂性,仍可以提高其性能。此外,其结果缺乏可解释性导致经理缺乏信任。在这项研究中,提出了一个由三层组成的分步框架,以预测具有高解释性的客户流失。第一层利用数据预处理技术,第二层提出了基于受监督和无监督算法的新型分类模型,第三层使用评估标准来改善可解释性。所提出的模型在预测性和描述性分数中都优于现有模型。本文的新颖性在于提出一种混合机器学习模型,用于客户流失预测并使用提取的指标评估其可解释性。的结果证明了模型的群集数据集版本优于非簇版本,而KNN的召回得分几乎为第一层的召回率为99%,而群集决策树则获得了第二层的96%的召回率。另外,发现参数敏感性和稳定性是有效的可解释性评估指标。
· 扩展的“混乱”实践任务,要求你思考你正在做的事情 · 受邀参加来自行业和/或医疗保健部门的演讲 · 数据注释、评估 · 道德和法律问题、可解释性
结果表明,我们的建议提供了可解释的解决方案,而无需牺牲预测准确性或安全性,并提供了一种有希望的糖尿病管理葡萄糖预测方法,可以平衡准确性,安全性,可解释性和计算效率。
复杂的网络威胁的兴起刺激了入侵检测系统(IDS)的进步,这对于实时识别和减轻安全漏洞至关重要。传统ID通常依赖于复杂的机器学习算法,尽管其精确度很高,这些算法仍缺乏透明度,从而产生了“黑匣子”效应,从而阻碍了分析师对他们决策过程的理解。可解释的人工智能(XAI)通过提供可解释性和透明度,提供了一个有希望的解决方案,使安全专业人员能够更好地理解IDS模型。本文对XAI在ID中的集成进行了系统的综述,重点是提高网络安全的透明度和可解释性。通过对最近的研究的全面分析,本综述确定了常用的XAI技术,评估了它们在IDS框架中的有效性,并检查了它们的收益和局限性。的发现表明,基于规则和基于树的XAI模型是其可解释性的首选,尽管具有检测准确性的权衡仍然具有挑战性。此外,该评论突出了标准化和可扩展性中的关键差距,强调了对混合模型和实时解释性的需求。本文以未来研究方向的建议结束,提出了针对ID,标准化评估指标以及优先级安全和透明度的道德框架量身定制的XAI技术的改进。本评论旨在告知研究人员和从业者当前的趋势和未来利用XAI提高ID的有效性,促进更透明,更弹性的网络安全景观方面的机会。