新草案序言部分(PP1至PP4)提及了此前有关和平利用外层空间法律框架的决议,旨在促进国际合作,利用空间技术实现可持续发展目标,落实“空间2030”议程。PP5至PP7回顾了建立信任措施、对外层空间活动长期可持续性的新威胁以及改善信息交流以加强外层空间作业安全性的必要性。PP8至PP10承认外空委在提高各国透明度和信任度以及促进外层空间活动长期可持续性方面的作用。
如前所述,谎言被用来为拟议改进之前和之后的模型预测提供解释。没有细化,解释显示出次优的肿瘤节覆盖率,平均仅为32.41%。在引入改进机制后,使用了三种不同的技术(Canny,Laplace,Otsu的阈值)用于生产脑面膜。为了确定生成有意义解释的最佳段数,我们探索了使用精制的石灰图像解释器选择最佳的1、3和5段的影响。检查肿瘤细分市场的覆盖范围,我们发现依靠单个细分市场的平均覆盖率为27.63%,非常类似于挑选最佳3个细分市场而没有我们的细化的表现。选择最佳的3个细分市场时,观察到了实质性的改进,平均增加到50.28%。采用5个部分的肿瘤覆盖率为63.84%。
数学编程的进步使得有效地解决了几十年前被认为是棘手的大规模现实问题。但是,由于将优化软件视为黑匣子,因此可能无法接受最佳解决方案。al-尽管科学家对此充分理解,但对于从业者来说,这很容易获得。因此,我们主张将解决方案作为另一个评估标准的解释性,即其目标价值旁边,这使我们能够找到这两个标准之间的交易解决方案。可以通过与过去在类似情况下实施的(不一定是最佳的)解决方案进行比较。因此,首选具有相似特征的溶液。al-尽管我们证明在简单的情况下,解释模型是np-hard,但我们表征了相关的多项式解决案例,例如可解释的最短路径问题。我们在人工和世界道路网络上进行的数字实验都显示了由此产生的帕累托前沿。事实证明,可执行性的成本可能很小。
1计算模块结果1 1.1术语和定义。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。1 1.1.1评估组件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。1 1.1.2模块。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。2 1.2计算数值分级模块的模块结果。。。。。。。。。。。。。。。。。。。2 1.2.1常规方法。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。2 1.2.2通过/失败,必须通过评估组件。。。。。。。。。。。。。。。。。。。。。。。3 1.2.3示例。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。3 1.2.4封盖和其他修正案。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。4 1.3通过/失败分级模块的模块结果计算。。。。。。。。。。。。。。。。。。。。。5 1.3.1常规方法。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。5 1.3.2示例。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6
人们经常宣扬“大数据”与人工智能 (AI) 的结合,认为将其应用于医疗决策时能带来宝贵的健康益处。然而,负责任地采用基于人工智能的临床决策支持系统在个人和社会层面都面临着多重挑战。其中一个特别令人担忧的特点是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,则可能导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由对人工智能有要求,而对医生没有要求的东西。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的基本功能,从而阐明其在人工智能临床应用背景下的相关性,需要进行更深入的探讨。在本文中,我们通过研究可解释性在临床医学中的要求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对于可解释性的短期和长期要求具有影响。我们强调透明度在可解释性中的作用,并确定语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求可解释性(科学或因果解释)的最令人信服的理由是,通过建立更强大的世界模型,有可能改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要努力探索科学解释并继续改善未来患者的医疗保健,准确性就足以作为对当今患者进行干预的依据。
人们经常宣传“大数据”和人工智能 (AI) 的结合在应用于医疗决策时具有带来宝贵健康益处的潜力。然而,负责任地采用基于 AI 的临床决策支持系统在个人和社会层面都面临着若干挑战。引起特别关注的特征之一是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,这可能会导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理地依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由要求 AI 做医生不需要的事情。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的潜在功能,以及它在临床应用人工智能背景下的相关性,需要进行更细致的分析。在本文中,我们通过研究可解释性在临床医学中的需求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对可解释性的短期和长期要求具有影响。我们强调了透明度在可解释性中的作用,并认为语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求科学或因果解释意义上的可解释性的最令人信服的理由是通过建立更强大的世界模型来改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要揭示科学解释的努力继续改善未来患者的医疗保健,准确性就足以为当今的患者提供干预。
摘要:与欧盟委员会提出的《人工智能法案》相关,执法和警察服务属于人工智能 (AI) 高风险领域的一部分。因此,在数字政府和高风险人工智能系统领域,存在着确保人工智能使用符合道德和社会方面的特殊责任。《人工智能法案》还对人工智能提出了可解释性要求,可以通过使用可解释人工智能 (XAI) 来满足这些要求。文献尚未涉及高风险领域执法和警察服务在遵守可解释性要求方面的特征。我们进行了 11 次专家访谈,并使用扎根理论方法建立了一个扎根模型,以说明执法和警察服务背景下的人工智能可解释性要求合规现象。我们讨论了该模型和结果如何对当局、政府、从业者和研究人员都有用。
该项目采用三层方法,包括操作层、预测层和风险框架。在与空中交通管制员的研讨会上,操作层开发了复飞预测可以为空中交通管理带来好处的场景。这导致了 SafeOPS 初始阶段的初步运营概念和用例和要求的定义。在此基础上,预测层开发了复飞预测的初始机器学习模型,深入了解了可实现的准确性和预测的透明度。同时,风险框架评估了预见的决策支持概念在运营安全方面的风险和好处,还包括人为因素考虑。在项目的最后阶段,运营层根据风险框架和预测层的发现设计了一个模拟练习,以调查 SafeOPS 概念对安全性和弹性的影响。因此,SafeOPS 专注于最初定义的场景中的分离挑战、工作量和 Tower 操作容量。
全局 BETA 模型 [37*] 树提取 - Bastani、Kim 和 Bastani [38*] 提炼和比较模型 - Tan、Caruana、Hooker 和 Lou [39] 符号元模型 - Alaa 和 van der Schaar [40] 局部 LIME - Ribeiro 等人。 [26] 锚点——Ribeiro、Singh 和 Guestrin [41] 归因全局 PDP——Friedman [42] 特征交互——Friedman 和 Popescu [43] ALE——Apley 和 Zhu [44*] 特征重要性——Fisher、Rudin 和 Dominici Kapelner、Bleich 和 Pitkin [47] QII——Datta、Sen 和 Zick [48] SHAP——Lundberg 和 Lee [49] LOCO——Lei 等人。 [46] INVASE - Yoon, Jordon 和 van der Schaar [50] 全球影响力实例示例 - Cook [51] MMD-critic - Kim, Khanna 和 Koyejo [52] 本地影响力实例 - Cook [51] 无条件反事实解释 - Wachter, Mittelstadt 和 Russell
概述:人工智能 (AI) 技术在许多领域越来越重要 (Russell and Norvig, 2020)。与此同时,对已部署的 AI 系统的透明度的需求正在兴起,包括通过对 AI 决策的解释 (Goodman and Flaxman, 2017)。尽管围绕该主题的研究兴趣急剧增加 (Lipton, 2018),但可解释人工智能 (XAI) 尚无标准或普遍接受的定义。从广义上讲,XAI 可以理解为包括任何使 AI 系统的利益相关者能够理解和信任该系统的过程/工具/方法。AI 系统正在许多环境中开发和部署,而人们越来越期望 AI 系统能够自主运行 (Biran and Cotton, 2017)。机器学习 (ML) 尤其已用于各种任务,现在已渗透到日常生活中。利益相关者需要理解和信任 AI 系统的输出(例如建议或行动)现在是一个关键问题。相反,缺乏透明度和可解释性是进一步采用 AI 系统的主要障碍(Gunning 和 Aha,2019 年)。在许多情况下,AI 系统的建议和行动可能至关重要(例如在安全领域或医疗诊断中)。用户不仅需要知道输出,还需要知道给出该输出的原因(Tjoa
