Davide Massarotti、Halima G. Ahmad、Domenico Montemurro、Roberta Satariano、Anna Levochkina、Pasquale Mastrovito、Carlo Cosenza、Viviana Stasino、Giuseppe Serpico、Ciro Bruscino、Pasquale Ercolano、Zafar Iqbal、Alessandro Miano Giovanni Ausanio、Loredana Parlato、Giampiero Pepe 和 Francesco Tafuri
哈佛医学院通过机器学习(ML)系统的攻击性诊断系统通常被认为是客观且公平的。但是,它可能对某些患者亚组表现出偏见。造成这种情况的典型原因是ML系统筛查的疾病特征的选择,ML系统从人类临床判断中学习,这些判断通常是有偏见的,并且ML中的公平性通常被不当概念化为“平等”。具有此类参数的ML系统无法准确诊断并满足患者的实际健康需求以及他们如何依赖患者的社会身份(即交叉性)和更广泛的社会条件(即嵌入)。本文探讨了鉴于患者的交叉性和健康的社会嵌入性,以确保ML系统的公平性的道德义务。本文提出了一组干预措施来解决这些问题。它建议对ML系统的发展进行范式转移,使他们能够筛查内源性疾病原因和患者相关潜在的健康影响(例如社会经济的情况。本文提出了一个道德要求的框架,以建立这一转变并进一步确保公平。关键字:机器学习;公平正义;道德要求;放射学I型机器学习(ML)系统在临床护理环境中发现了在医疗保健监测,诊断和风险管理中的应用(Bates&Zimlichman,2015; Chen等,2024; Obermeyer等,2019)。但是,此光环可能没有完全合理。需求集中患者的交叉性和健康的社会嵌入性,最值得注意的是(i)通过(i)整合到ML系统中,适用于患者情况对健康影响的可测量医学指标,(ii)在道德上,多样性,代表性和正确的患者数据,与相关的疾病特征和(III)相关的社会敏感性和(III)涉及的疾病以及(III)的敏感性和(iii)涉及的数据,以及涉及的研究,并涉及社会敏感的系统,并将其涉及互联网互动,并将其涉及互联网效果。利益相关者。在放射学中,ML系统用于协助或增强临床医生在各种图像获取,分析,解释,诊断和决策支持任务中的工作(Hanneman等,2024; Yu等,2024)。这种更广泛采用的主要驱动力似乎是ML系统在图像解释和精确方面的表现(Pot等,2021; Satariano等,2023; Yu等,2024)。所谓的“自动化偏见” - 人类对自动化系统产生的信息的有效性和预测能力的倾向”(Pot等,2021,p。7) - 赋予了ML ML系统,具有对象和公平性的AURA(Pot等,20211)。对实现这些高希望的主要挑战已被证明是ML偏见系统和相关不公平结果的流行(Gichoya等,2022,2023; Hanneman等,2024; Pot et al。,2021)。ML偏见的医疗保健访问和治疗不足,引起了ML系统引起或永久存在的整体不公平性的道德问题。实证研究已系统地记录了ML偏见系统的持久性和对历史上服务不足的患者人群的不公平治疗,包括放射学(Obermeyer等,2019; Gichoya et al。,2023; Seyyed-Kalantari-Kalantari-Kalantari-Kalantari et al。等,2022; Mukherjee等人,2022年)。