随着人工智能(AI)的兴起,对AI的关注,导致对安全,隐私,安全和公平性的危害正在加剧。尽管正在尝试制定法规的尝试正在进行,诸如《欧盟AI法》和2023年白宫行政命令之类的倡议持怀疑态度,但对此类法规的有效性充满了持怀疑态度。本文探讨了为AI应用程序解释性设计政策的跨学科范围,因为与欧盟一般数据保护法规相关的广泛讨论的“解释权”是模棱两可的。为了制定可解释性的实用指导,我们进行了一项实验研究,其中涉及在十个星期内具有AI和政策背景的研究人员之间的持续合作。目的是确定通过互际式的努力,我们是否可以就AI的解释性达成共识,该政策比目前的准则更清晰,更可行,更可行,更可执行。我们分享了九个观察结果,这些观察结果来自迭代政策设计过程,其中包括起草政策,试图遵守(或绕过它),并每周共同评估其有效性。主要观察结果包括:迭代和持续反馈对于随着时间的推移改善政策草案,在政策设计期间必要讨论合规性的证据,并且发现人类受试者的研究是一种重要的证据形式。这对政策制定者具有有希望的含义,表明可以实现对AI应用的实际和有效调节。我们以乐观情绪的注释,认为可以在适度的时间范围内实现有意义的政策,并且在政策设计方面的经验有限,这是我们团队中的学生研究人员所证明的。
数学编程的进步使得有效地解决了几十年前被认为是棘手的大规模现实问题。但是,由于将优化软件视为黑匣子,因此可能无法接受最佳解决方案。al-尽管科学家对此充分理解,但对于从业者来说,这很容易获得。因此,我们主张将解决方案作为另一个评估标准的解释性,即其目标价值旁边,这使我们能够找到这两个标准之间的交易解决方案。可以通过与过去在类似情况下实施的(不一定是最佳的)解决方案进行比较。因此,首选具有相似特征的溶液。al-尽管我们证明在简单的情况下,解释模型是np-hard,但我们表征了相关的多项式解决案例,例如可解释的最短路径问题。我们在人工和世界道路网络上进行的数字实验都显示了由此产生的帕累托前沿。事实证明,可执行性的成本可能很小。
抽象的人工智能,特别是机器学习和深度学习模型通常被认为是快速和高性能的,但总的来说,缺乏透明度和可解释性。在人工智能的整个广泛情况下,与解释性及其后果相关的问题变得越来越重要。要解决此问题,可以解释的AI,作为一组人工智能技术,能够使自己的决定更加透明和解释,以便用户理解该系统提供其结果,决策或在推荐系统的情况下的具体原因。在异质领域和环境中非常需要解释的人工智能,因为基于人工智能的系统的透明度,可解释性甚至是帐户能力的需求是最必要的,正如欧洲联盟2018年通用数据保护法规中最近的解释权所证实的那样。由于推荐系统在日常生活和业务领域的许多应用领域和情况中的扩散,因此系统不仅可以为人类决策者提供建议并简化组织中的决策过程,而且还可以提供正确的建议动机。本文总结了针对推荐系统的可解释人工智能的艺术状态研究的结果。我们将遵循文献中的主要评论,以介绍主要的工作,可解释的建议和方法。
传统电网长期以来一直受到运行不可靠、不稳定、不灵活和效率低下的困扰。智能电网(或智能能源系统)继续通过新兴技术、可再生能源和其他趋势改变能源行业。人工智能 (AI) 正在应用于智能能源系统,以处理该领域的海量复杂数据并做出明智及时的决策。然而,人工智能缺乏可解释性和可治理性是利益相关者的主要担忧,阻碍了人工智能在能源领域的快速应用。本文回顾了智能能源系统中人工智能的可解释性和治理。我们从 Scopus 数据库中收集了 3,568 篇相关论文,自动发现能源领域人工智能治理的 15 个参数或主题,并通过回顾 150 多篇论文并提供研究的时间进展来阐述研究前景。发现参数或主题的方法基于“深度新闻”,这是我们基于数据驱动的深度学习的大数据分析方法,可以自动发现和分析横断面多视角信息,从而实现更好的决策并开发更好的治理工具。研究结果表明,对能源系统中人工智能可解释性的研究是分段的,并且仅关注少数人工智能特征和能源系统问题。本文加深了我们对能源领域人工智能治理的认识,有望帮助政府、行业、学术界、能源产消者和其他利益相关者了解能源领域人工智能的前景,从而更好地设计、运营、利用和管理能源系统。
摘要:与欧盟委员会提出的《人工智能法案》相关,执法和警察服务属于人工智能 (AI) 高风险领域的一部分。因此,在数字政府和高风险人工智能系统领域,存在着确保人工智能使用符合道德和社会方面的特殊责任。《人工智能法案》还对人工智能提出了可解释性要求,可以通过使用可解释人工智能 (XAI) 来满足这些要求。文献尚未涉及高风险领域执法和警察服务在遵守可解释性要求方面的特征。我们进行了 11 次专家访谈,并使用扎根理论方法建立了一个扎根模型,以说明执法和警察服务背景下的人工智能可解释性要求合规现象。我们讨论了该模型和结果如何对当局、政府、从业者和研究人员都有用。
该项目采用三层方法,包括操作层、预测层和风险框架。在与空中交通管制员的研讨会上,操作层开发了复飞预测可以为空中交通管理带来好处的场景。这导致了 SafeOPS 初始阶段的初步运营概念和用例和要求的定义。在此基础上,预测层开发了复飞预测的初始机器学习模型,深入了解了可实现的准确性和预测的透明度。同时,风险框架评估了预见的决策支持概念在运营安全方面的风险和好处,还包括人为因素考虑。在项目的最后阶段,运营层根据风险框架和预测层的发现设计了一个模拟练习,以调查 SafeOPS 概念对安全性和弹性的影响。因此,SafeOPS 专注于最初定义的场景中的分离挑战、工作量和 Tower 操作容量。
概述:人工智能 (AI) 技术在许多领域越来越重要 (Russell and Norvig, 2020)。与此同时,对已部署的 AI 系统的透明度的需求正在兴起,包括通过对 AI 决策的解释 (Goodman and Flaxman, 2017)。尽管围绕该主题的研究兴趣急剧增加 (Lipton, 2018),但可解释人工智能 (XAI) 尚无标准或普遍接受的定义。从广义上讲,XAI 可以理解为包括任何使 AI 系统的利益相关者能够理解和信任该系统的过程/工具/方法。AI 系统正在许多环境中开发和部署,而人们越来越期望 AI 系统能够自主运行 (Biran and Cotton, 2017)。机器学习 (ML) 尤其已用于各种任务,现在已渗透到日常生活中。利益相关者需要理解和信任 AI 系统的输出(例如建议或行动)现在是一个关键问题。相反,缺乏透明度和可解释性是进一步采用 AI 系统的主要障碍(Gunning 和 Aha,2019 年)。在许多情况下,AI 系统的建议和行动可能至关重要(例如在安全领域或医疗诊断中)。用户不仅需要知道输出,还需要知道给出该输出的原因(Tjoa
[1]辛西娅·鲁丁(Cynthia Rudin)。停止解释用于高赌注决策的黑匣子机器学习模型,然后使用可解释的模型。自然机器智能,1(5):206–215,2019 [2]MarcoTúlioRibeiro,Sameer Singh和Carlos Guestrin。“我为什么要信任您?”:解释任何分类器的预测。Corr,ABS/1602.04938,2016。[3] Sebastian Bach,Alexander Binder,GrégoireMontavon,Frederick Klauschen,Klaus-RobertMüller和Wojciech Samek。通过层次相关性传播对非线性分类器决策的像素智慧解释。plos One,10(7):1-46,07 2015。[4] Alina Barnett,Jonathan SU,Cynthia Rudin,Chaofan Chen,Oscar Li。这看起来像:深入学习可解释的图像识别。在神经信息处理系统会议论文集(Neurips),2019年。
4 我们与参与者的讨论集中在基于人工智能的算法决策系统上,该系统具有从基于基本规则的系统到高级深度学习系统的广泛功能。因此,当参与者谈到人工智能时,他们通常会在基于人工智能的算法决策系统的背景下提及它。5 为了便于阅读,我们遵循了与 [ 23 ] 中所述的应用社会科学研究实践一致的编辑惯例。具体来说,我们编辑了引文以删除填充词和错误的开头等内容,在某些情况下,我们重新加了标点。我们使用省略号来表示大量遗漏。我们通过国家名称加上从 01 到 12 的数字标识符来标识每个参与者。对于德国,我们通过在数字标识符前面添加 A 或 B 来区分两个研讨会。
