摘要 目前存在一场争论,即在医学背景下使用的机器学习系统是否需要可解释,以及在何种意义上需要可解释。赞成者认为,这些系统需要对每个个人决策进行事后解释,以增加信任并确保诊断准确。反对者则认为,系统的高准确性和可靠性足以提供认知上合理的信念,而无需解释每个个人决策。但是,正如我们所表明的,这两种解决方案都有局限性——而且目前还不清楚它们是否能解决使用这些系统的医疗专业人员的认知担忧。我们认为这些系统确实需要解释,但需要制度上的解释。这些类型的解释提供了医疗专业人员在实践中应该依赖该系统的原因——也就是说,它们专注于试图解决那些在特定环境和特定场合使用该系统的人的认知担忧。但确保这些制度解释符合目的意味着确保设计和部署这些系统的机构对系统中的假设是透明的。这需要与专家和最终用户协调,了解该系统在现场如何发挥作用、用于评估其准确性的指标以及审核系统的程序,以防止出现偏差和故障。我们认为,这种更广泛的解释是必要的,因为事后解释或准确性分数对医疗专业人员具有认识论意义,使他们能够依赖这些系统作为实践中有效和有用的工具。
