核医学人工智能 (AI) 指南。摘要 目前迫切需要制定策略来对核医学人工智能 (AI) 算法进行严格客观的基于临床任务的评估。为了满足这一需求,我们提出了一个四类框架来评估 AI 算法的前景、技术任务特定功效、临床决策和部署后功效。我们提供了评估每个类别的 AI 算法的最佳实践。每类评估都会产生一个声明,该声明提供了 AI 算法的描述性性能。关键的最佳实践被列为 RELAINCE(核医学人工智能评估建议)指南。该报告由核医学和分子成像 AI 工作组评估小组编写,该小组由核医学医师、物理学家、计算成像科学家以及来自行业和监管机构的代表组成。引言基于人工智能 (AI) 的算法在核医学的多个方面显示出巨大的前景,包括图像采集、重建、后处理、分割、诊断和预后。将这种前景转化为临床现实需要对这些算法进行严格的评估。对 AI 算法的评估不足可能会产生多种不利后果,包括降低研究结果的可信度、误导未来研究,最重要的是,产生对患者无用甚至有害的工具 (1)。本报告的目标是提供最佳实践来评估为核医学背景下的图像采集、后处理再到临床决策等成像流程的不同部分开发的 AI 算法。我们在评估使用基于人工神经网络的架构(包括深度学习)的 AI 算法的背景下提供这些实践。然而,许多原则广泛应用于其他机器学习和基于物理的算法。在报告的其余部分,AI 算法指的是使用人工神经网络的算法。评估在任何成像技术的转化中都具有既定且必不可少的作用,但由于其工作原理,评估对于人工智能算法来说更为关键。人工智能算法通常不是
人工智能 (AI) 的发展势头强劲,其对医学和银行业等许多领域未来工作的重要性不断上升。然而,关于人类与人工智能有效合作的见解仍然很少。通常,人工智能通过解决人类的局限性来支持人类决策。然而,它也可能引起人类的偏见,尤其是以自动化偏见的形式出现,即过度依赖人工智能的建议。我们的目标是揭示可解释人工智能 (XAI) 影响自动化偏见的潜力。在这个预测试中,我们推导出一个研究模型并描述了我们的研究设计。随后,我们对酒店评论分类进行了在线实验并讨论了初步结果。我们希望我们的研究能够为安全混合智能系统的设计和开发做出贡献。关键词:自动化偏见、可解释人工智能、人机协作、混合智能。
“举证责任”由受害人承担。投诉必须提供证据,以支持合理推断种族、肤色、宗教、性别、年龄(40 岁以上)、国籍、残疾(精神或身体)、遗传信息和/或报复(因从事受保护活动)在受陆军控制的就业事务中存在歧视,而无需担心受到胁迫、限制、干涉、骚扰、恐吓或报复。
第 138 条投诉 什么是第 138 条投诉?第 138 条投诉是一个过程,通过此过程您可以尝试纠正指挥官对您犯下的错误。“错误”可能是指挥官采取的行动(行为),或指挥官未能采取应采取的行动(疏忽)。“错误”是对您个人造成影响的事情,并且违反法律或法规、超出指挥官的合法权限、任意行为或滥用指挥官的自由裁量权或实质上不公平。“错误”可能是对任何权利、特权、利益或权益的剥夺、限制或限制。我什么时候可以使用第 138 条投诉程序?一般而言,只要您觉得指挥官对您犯了错误,就可以使用第 138 条投诉。如下文第 3 段所述,有一些例外情况。常见的错误示例是指挥官无理拒绝您的休假请求或以不明原因撤销晋升命令。我什么时候不能使用第 138 条投诉程序?当陆军提供了解决投诉的其他渠道时,第 138 条程序不适用。示例包括:
监管机构关注的一个领域和组织面临的一个问题是人工智能 (AI) 系统需要提高透明度和“可解释性”。因此,一系列学术、行业和政府举措旨在为新的法律要求提供实际背景,并帮助组织反驳有关人工智能系统不透明或充当“黑匣子”的指控。其中最新的一项是英国信息专员办公室 (ICO) 和艾伦图灵研究所合作开展的 Project explAIn 指南,该指南在行业咨询后于 2020 年 5 月发布。这旨在以符合法律要求以及技术和治理最佳实践的方式提供有关解释人工智能系统所做决策的实用建议。在这里,我们考虑了英国现有的一些可解释性法律要求,并探讨了该指南的主要要点。
在本文中,我们提出了三种可解释的深度学习架构,根据语言能力自动检测阿尔茨海默病患者。这些架构使用:(1)仅词性特征;(2)仅语言嵌入特征和(3)通过统一架构同时使用这两个特征类。我们使用自注意力机制和可解释的一维卷积神经网络 (CNN) 来生成两种类型的模型行为解释:类内解释和类间解释。类间解释捕获该类中每个不同特征的相对重要性,而类间解释捕获类之间的相对重要性。请注意,尽管我们在本文中考虑了两类特征,但由于该架构具有模块化,因此很容易扩展到更多类。大量的实验和与最近的几个模型的比较表明,我们的方法优于这些方法,准确率为 92.2%,F1 分数为 0。 952 在 DementiaBank 数据集上,同时能够生成解释。我们通过示例展示如何使用注意力值生成这些解释。