本文已由Efrag秘书处编写,在Efrag SRB的一次公开会议上进行讨论。本文构成了潜在EFRAG位置发展的早期阶段的一部分。因此,本文不代表Efrag的官方观点或Efrag SRB或Efrag Sr Teg的任何个人。该论文可供使用,使公众能够遵循会议中的讨论。暂定决定是在公开场合做出的,并在EFRAG更新中进行了报告。eFrag职位作为评论信,讨论或职位论文或在这种情况下被认为适当的任何其他形式发表。已经起草了每个解释的内容,以提供特定技术问题的答案,并且不能通过类比直接扩展到其他事实模式。
一名既往健康的 68 岁男性出现右手进行性肌肉无力、吞咽困难和行走困难。他认为这些症状是“突然”发生的,并且在过去 2-3 个月内恶化。他的体温为 98.6 华氏度(37 摄氏度),血压为 145/86 毫米汞柱,脉搏为 80/分钟,呼吸为 17/分钟。神经系统检查发现有轻度构音障碍。他的右手和前臂鱼际肌萎缩,腕关节伸展和屈曲肌力为 2/5,右手内在肌力为 3/5。他的右大腿有一些肌束震颤,双侧髋屈肌轻度(4+/5)无力。双腿张力增加。感觉检查完好。左下肢髌骨反射为 3+。步态测试显示,患者平衡能力较差,步态痉挛。以下哪项是最可能的诊断?
算法追索性是一个利用反事实解释的过程,而不仅仅是理解系统产生给定的分类的原因,还可以为用户提供他们可以采取的行动来改变其预测结果。现有的计算此类干预措施的方法(称为追索权)确定了一组满足某些Desiderata的点 - e.g。对基本因果图的干预,最大程度地减少成本函数等。需要对基本模型结构的广泛了解,这在几个领域中通常是不切实际的信息。我们提出了一个数据驱动和模型不合时宜的框架来计算反事实解释。我们介绍了步骤,这是一种计算上有效的方法,它沿数据歧管沿着数据歧管递增步骤,该步骤将用户指导用户达到所需的结果。我们表明,该步骤独特地满足了一组理想的公理。此外,通过彻底的经验和理论调查,我们表明,在沿着重要指标沿着重要指标的流行方法胜过可证明的鲁棒性和隐私保证。
efrag的使命是通过在公司报告领域发展和促进欧洲观点来为欧洲的公共利益提供财务和可持续性报告。efrag建立在公司报告中的进步并为进步做出了贡献。在其可持续性报告活动中,EFRAG以欧洲委员会的形式提供了技术建议,该欧洲委员会的形式是在强大的正当程序下详细阐述的欧洲可持续性报告标准(ESR),并支持有效实施ESR。 efrag寻求所有利益相关者的意见,并在整个标准设定过程中获得有关特定欧洲情况的证据。 其合法性是建立在卓越,透明度,治理,正当程序,公共责任和思想领导力的基础上的。 这使Efrag能够令人信服,清晰,一致地讲话,并被认为是公司报告中的欧洲声音,并且是公司报告中全球进步的贡献者。在其可持续性报告活动中,EFRAG以欧洲委员会的形式提供了技术建议,该欧洲委员会的形式是在强大的正当程序下详细阐述的欧洲可持续性报告标准(ESR),并支持有效实施ESR。efrag寻求所有利益相关者的意见,并在整个标准设定过程中获得有关特定欧洲情况的证据。其合法性是建立在卓越,透明度,治理,正当程序,公共责任和思想领导力的基础上的。这使Efrag能够令人信服,清晰,一致地讲话,并被认为是公司报告中的欧洲声音,并且是公司报告中全球进步的贡献者。
卷积神经网络(CNN)在几十年前就无法想象的表演,这要归功于采用了数百层和近数十亿个可训练的参数的非常大的模型。然而,解释他们的决策是很不困难的,因为它们是高度非线性的,并且过度参数化。此外,对于现实生活中的应用,如果模型利用数据的伪造相关性来预测预测,则最终用户将怀疑该决定的有效性。尤其是,在医学或关键系统等高风险场景中,ML必须保证使用正确的功能来计算预测并防止伪造的关联。因此,近年来,可解释的人工智能(XAI)研究领域一直在不断发展,以了解黑盒模型中的决策机制。在本文中,我们关注事后解释方法。值得注意的是,我们对反事实解释的不断增长分支(CE)[63]。ce旨在创建输入样本的最小但有意义的扰动,以更改固定预告片模型给出的原始决定。尽管CE和对抗性示例之间的观点具有一些相似之处[44],但CE的扰动必须是可以理解和合理的。相比之下,对抗性示例[37]包含与人眼无法区分的高频噪声。总体而言,CE目标四个目标:(i)解释必须使用(ii)稀疏修改,即具有最小扰动的实例。此外,(iii)解释必须是现实的,并且可以通过
本文解决了生成法定说明(CES)的挑战,涉及识别和修改最少的必要特征,以使分类器对给定图像的预测进行预测。我们提出的方法是反事实e xplanations(Time)的tept to-i mage m odels,是一种基于蒸馏的黑盒反事实技术。与以前的方法不同,此方法仅需要图像及其预测,从而忽略了分类器的结构,参数或梯度的需求。在生成反事实之前,时间将两个不同的偏见引入了文本嵌入的形式稳定扩散:与图像的结构相关联的上下文偏差和类别偏见,与目标分类器学到的类特异性特征相关。学习了这些偏见后,我们发现了使用类预测的类令牌的最佳潜在代码,并使用目标嵌入作为条件,从而产生了符合性的解释。广泛的经验研究证明,即使在黑色盒子设置中运行时,时间也可以产生可比性的解释。
反事实说明通过回答“如果”方案,阐明了复杂的系统决策,表明最小输入变化如何导致不同的结果[1]。这对于机器学习(ML)至关重要,其中了解模型的理由与决策本身一样重要[2]。通过检查假设的替代方法,反事实解释使ML模型的决策更加透明和可理解。尽管对反事实解释的兴趣越来越大,但文献上存在有关用于创建它们的生成方法的差距。变异自动编码器(VAES)[3],生成对抗网络(GAN)[4]和deno的扩散概率模型(DDPMS)[5]非常值得注意,尤其是生成反事实,尤其是对于复杂的数据模态,例如图像等复杂的数据模态,在其中调整了不隔离的功能。但是,现有的调查通常忽略生成方面或高维数据方案[6,7,8]。我们的工作通过着重于复杂数据中的反事实解释的生成模型来解决这一差距,从而对其能力和局限性提供了全面的理解。在本文中,我们探讨了反事实解释的生成模型的常见用例,并突出了主要的挑战。我们通过其生成技术对方法进行分类,并检查对标准过程的修改,以满足反事实要求。我们的讨论旨在通过确定反事实解释中推进生成方法的关键挑战和潜在方向来刺激进一步的研究。while
人工智能算法辅助在高风险决策中的应用越来越多,这引起了人们对可解释人工智能 (xAI) 的兴趣,以及反事实解释在增加人机协作信任和减轻不公平结果方面的作用。然而,在理解可解释人工智能如何改善人类决策方面,研究还很有限。我们进行了一项在线实验,共有 559 名参与者参与,利用“算法在环”框架和现实世界的审前数据,研究从最先进的机器学习解释方法(通过 DiCE 的反事实解释和通过 SHAP 的事实解释)生成的算法审前风险评估的解释如何影响决策者对累犯的评估质量。我们的结果表明,反事实和事实解释实现了不同的理想目标(分别改善人类对模型准确性、公平性和校准的评估),但仍未提高人类预测的综合准确性、公平性和可靠性——重申了 xAI 对社会技术、实证评估的需求。我们最后讨论了用户对 DiCE 反事实解释的反馈,以及我们的结果对人工智能辅助决策和人工智能的更广泛影响。 xAI。
人工智能和机器学习 (AI/ML) 算法在医疗保健领域的发展日渐成熟,用于诊断和治疗各种医疗状况 ( 1 )。然而,尽管此类系统技术实力雄厚,但它们的采用却一直充满挑战,它们是否能真正改善医疗保健以及在多大程度上改善医疗保健仍有待观察。一个主要原因是,基于 AI/ML 的医疗设备的有效性在很大程度上取决于其用户的行为特征,例如,用户往往容易受到有据可查的偏见或算法厌恶的影响 ( 2 )。许多利益相关者越来越多地将预测算法所谓的黑箱性质视为用户持怀疑态度、缺乏信任和接受缓慢的核心原因 ( 3, 4 )。因此,立法者一直在朝着要求提供黑箱算法决策解释的方向发展 (5) 。事实上,学术界、政府和民间社会团体几乎一致支持可解释的 AI/ML。许多人被这种方法吸引,因为它既能利用不可解释的人工智能/机器学习(如深度学习或神经网络)的准确性优势,又能支持透明度、信任和采用。我们认为,这种共识至少在应用于医疗保健领域时,既夸大了要求黑盒算法可解释的好处,又低估了其弊端。