机器学习和人工智能 (ML/AI) 模型性能的不断提高,使得它们在日常生活中越来越常见,包括临床医学 (Bruckert 等人; Rosenfeld 等人,2021 年)。虽然对 ML/AI 工具不透明的“黑匣子”性质的担忧并不是什么新鲜事,但随着 ML/AI 设备从实验室转移到尚未完全赶上最先进水平的监管流程 (Benrimoh 等人,2018a) 并进入临床,对可解释性问题的实际解决方案的需求变得更加迫切。本特别版针对医疗保健领域实施 ML/AI 方法需要创新和更清晰的最佳实践的三个关键领域:确保安全、证明有效性和提供可解释性。值得注意的是,前两个标准长期以来一直是药品和医疗器械评估的主要内容(即,为了获得批准用于人类,产品必须证明其安全有效——通常与合理的比较物进行比较)(Sp ł awi´nski 和 Ku´zniar,2004 年)。第三个要求——可解释性——似乎是 ML/AI 所独有的,因为它面临着解释模型如何得出越来越准确的结论的挑战。然而,经过仔细研究,人们可能会认为可解释性标准在过去就已经隐含了:药物和设备的作用机制通常在其产品文档中描述(加拿大卫生部,2014 年)。然而,这可能会产生误导。例如,许多药物具有已知的受体结合谱和假定的作用机制,尽管它们在临床实践中广泛使用,但它们产生作用的确切机制仍不清楚。这方面的主要例子是锂(Shaldubina 等人,2001)和电休克疗法(Scott,2011),这两种治疗方法都存在已久且非常有效,但其作用机制仍存在争议。事实上,即使是全身麻醉的确切机制也是争论的主题(Pleuvry,2008)。因此,我们必须考虑一个折衷方案——即足够的可解释性(Clarke 和 Kapelner)。这涉及回答以下问题:我们必须对模型了解多少才能确定它在临床实践中是安全的?本期特刊中的文章开始探讨这一问题的可能答案,以及 ML/AI 在医疗保健环境中的应用中的其他关键问题。
主要关键词