© 编辑(如适用)和作者 2022。本书是开放获取出版物。开放获取 本书根据知识共享署名 4.0 国际许可证(http://creativecommons.org/licenses/by/4.0/)的条款获得许可,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信用,提供知识共享许可证的链接并指明是否进行了更改。本书中的图像或其他第三方材料包含在本书的知识共享许可证中,除非在材料的致谢中另有说明。如果材料未包含在本书的知识共享许可证中,并且您的预期用途不被法定法规允许或超出允许用途,则您需要直接从版权所有者处获得许可。本出版物中使用一般描述性名称、注册名称、商标、服务标记等。即使没有具体声明,也不意味着这些名称不受相关保护法律和法规的约束,因此可以自由使用。出版商、作者和编辑可以放心地认为,本书中的建议和信息在出版之日是真实准确的。出版商、作者或编辑均不对此处包含的材料或可能出现的任何错误或遗漏提供明示或暗示的保证。出版商对已出版地图和机构隶属关系中的司法管辖权主张保持中立。
没有人工智能,现代教育就不是现代教育。然而,人工智能的复杂性使得理解和解决问题具有挑战性。全球研究表明,父母的收入对孩子的教育有很大影响。这促使我们探索人工智能,尤其是复杂模型,如何使用可解释的人工智能工具做出重要决策。我们的研究发现了许多与父母收入相关的复杂性,并为这些决定提供了合理的解释。然而,我们也发现人工智能存在偏见,这与我们对人工智能在教育领域的期望背道而驰:清晰透明,人人平等。这些偏见会影响家庭和儿童的教育,凸显了对更好的人工智能解决方案的需求,为所有人提供公平的机会。本章试图阐明人工智能运作的复杂方式,尤其是关于偏见的问题。这些是制定更好的教育政策的基础步骤,包括以更可靠、更负责、对所有参与者都有益的方式使用人工智能。
Relatech(股票代码:RLT ISIN IT0005433740)是一家数字化推动者解决方案专业知识 (DESK) 公司,自 2019 年 6 月起在 Euronext Growth Milan 市场上市,二十多年来一直活跃于数字化推动者前沿技术领域,例如云、网络安全、物联网、大数据、区块链、机器学习。Relatech 是企业数字化创新的参考合作伙伴,并且领导着一个高度专注于数字化推动者技术的公司集团,这些公司的共同使命是支持客户完成数字化转型。Relatech 不断投资开放式创新,内部中心与大学和国家研究中心合作开展密集的研发活动。借助 RePlatform 数字平台和来自科技合作伙伴生态系统的专业知识,Relatech 开发出能够创新客户业务模式的数字服务和解决方案,确保所有将数字化创新过程视为当前和未来成功关键的公司实现可持续的业务增长。
摘要 智能代理必须能够传达意图并解释其决策过程,以建立信任、培养信心并改善人机团队动态。认识到这一需求,学术界和工业界正在迅速提出新的想法、方法和框架,以帮助设计更可解释的人工智能。然而,仍然没有标准化的指标或实验协议来对新方法进行基准测试,研究人员只能依靠自己的直觉或临时方法来评估新概念。在这项工作中,我们提出了第一个全面的(n=286)用户研究,测试了可解释机器学习的广泛方法,包括特征重要性、概率分数、决策树、反事实推理、自然语言解释和基于案例的推理,以及没有解释的基线条件。我们提供了可解释性对人机团队影响的第一个大规模实证证据。我们的研究结果将通过强调反事实解释的好处和可解释性置信度得分的缺点,帮助指导可解释性研究的未来。我们还提出了一种新颖的问卷,用于衡量人类参与者的可解释性,该问卷受到相关先前工作的启发,并与人机协作指标相关联。
神经网络可以看作是一种新的编程范式,即不再通过程序员头脑中(通常是非正式的)逻辑推理来构建越来越复杂的程序,而是通过使用大数据优化通用神经网络模型来构建复杂的“人工智能”系统。在这个新范式中,TensorFlow 和 PyTorch 等人工智能框架起着关键作用,与传统程序的编译器一样重要。众所周知,编程语言(如 C)缺乏适当的语义,即编译器的正确性规范,导致了许多有问题的程序行为和安全问题。虽然由于编程语言的高度复杂性及其快速发展,通常很难为编译器制定正确性规范,但这次我们有独特的机会为神经网络(具有一组有限的功能,并且大多数具有稳定的语义)做到这一点。在这项工作中,我们报告了我们在提供 TensorFlow 等神经网络框架的正确性规范方面的努力。我们在逻辑编程语言 Prolog 中指定了几乎所有 TensorFlow 层的语义。我们通过两个应用程序展示了语义的实用性。一个是 TensorFlow 的模糊测试引擎,它具有强大的 oracle 和生成有效神经网络的系统方法。另一种是模型验证方法,可为 TensorFlow 模型提供一致的错误报告。
AI 被描述为“黑匣子”,这意味着得出其提供的结果的内部算法计算非常不透明 (Rai, 2020)。Doran、Schulz 和 Besold (2017) 对 xAI 给出了多方面的定义,即“不透明的技术,不解释其算法机制;可解释的系统,用户可以用数学方法分析其算法机制;可理解的系统,显示符号,向用户解释如何得出结论”(第 1 页)。现有研究 (例如Holzinger, 2018) 探讨了如何利用 AI 技术帮助企业做出更明智、更快的决策。然而,关于此类 AI 技术的“可解释性”因素的实证研究很少,而这些因素促使企业采用这些技术。这在撒哈拉以南非洲 (SSA) 尤其需要,因为那里人工智能的使用正在迅速增长,但监管仍不完善。
机器学习 (ML) / 人工智能 (AI) 技术(包括神经网络 (NN) 变体)正在快速发展,从而扩展了其功能,导致高级模型在决策过程中得到更频繁的使用 [1]。随着这些模型融入组织和日常工作中,学者和从业者需要更加关注模型的开发过程和结果的解释 [2]–[4]。这一点很重要,因为重要决策越来越多地由人们无法完全理解的不同形式的算法支持或完全自动化,这被称为 AI 黑箱解释问题 [5]。如果我们不能解释算法,我们就无法反驳它们、验证它们、改进它们或从中学习 [6], [7]。从业者和学者都呼吁通过实施透明且易于理解的 ML 模型来更好地理解复杂且不透明的模型。解释 ML 模型的工作原理和结果的产生方式,可以提高人们对机器学习模型的信任度 [5]、[8]– [10]。
摘要:由于 FDA 最近批准全幻灯片图像 (WSI) 系统为 II 类医疗器械,病理学家正在采用全幻灯片图像 (WSI) 进行诊断。为了应对病理学以外的新市场力量和最新技术进步,计算病理学这一新领域应运而生,将人工智能 (AI) 和机器学习算法应用于 WSI。计算病理学在提高病理学家的准确性和效率方面具有巨大潜力,但由于大多数 AI 算法的不透明性和黑箱性质,人们对 AI 的信任度存在重要担忧。此外,对于病理学家应如何将计算病理学系统纳入他们的工作流程,人们还没有达成共识。为了解决这些问题,构建具有可解释 AI (xAI) 机制的计算病理学系统是一种强大而透明的黑箱 AI 模型替代方案。xAI 可以揭示其决策的根本原因;这旨在提高 AI 在病理诊断等关键任务中的安全性和可靠性。本文概述了 xAI 在解剖病理学工作流程中的应用,这些应用可提高实践的效率和准确性。此外,我们还介绍了 HistoMapr-Breast,这是一款用于乳房核心活检的初始 xAI 软件应用程序。HistoMapr-Breast 会自动预览乳房核心 WSI 并识别感兴趣的区域,以交互且可解释的方式快速呈现关键诊断区域。我们预计 xAI 最终将作为计算机辅助初级诊断的交互式计算指南为病理学家服务。