摘要背景人们越来越担心人工智能 (AI) 在医疗保健领域的应用可能会使本已代表性不足和边缘化的群体处于不利地位(例如基于性别或种族)。目标我们的目标是调查利益相关者在试图减轻算法偏见时所认可的各种策略,并考虑算法偏见责任的伦理问题。方法这项研究涉及对医疗保健工作者、筛查项目经理、消费者健康代表、监管者、数据科学家和开发人员的深入、半结构化访谈。结果研究结果显示在三个关键问题上存在相当大的不同观点。首先,对于偏见是否是医疗保健 AI 中的一个问题,人们的看法各不相同,大多数参与者都同意偏见是一个问题(我们称之为偏见批判观点),少数人持相反观点(偏见否认观点),还有一些人认为人工智能的好处大于偏见问题带来的任何伤害或错误(偏见辩护者观点)。其次,对于减轻偏见的策略以及谁应该对这些策略负责存在分歧。最后,对于是否在人工智能的发展中纳入或排除社会文化标识符(例如种族、民族或性别多元化身份)以减轻偏见,存在不同的看法。结论/意义根据参与者的观点,我们列出了利益相关者可能采取的应对措施,包括加强跨学科合作、量身定制的利益相关者参与活动、了解算法偏见的实证研究和修改人工智能开发中主导方法的策略,例如使用参与式方法,以及增加研究团队和研究参与者招募与选择的多样性和包容性。
主要关键词