详细内容或原文请订阅后点击阅览
相同的症状,不同的护理:AI的隐藏偏见如何改变医疗决定
AI工具旨在协助医疗决策可能不会平等治疗所有患者。一项新的研究表明,这些系统有时会根据患者的背景改变护理建议,即使他们的医疗状况相同。西奈山的研究人员测试了领先的生成AI模型,并根据社会经济[...]
来源:SciTech日报旨在协助医疗决策的人工智能工具可能无法平等地对待所有患者。一项新的研究表明,这些系统有时会根据患者的背景改变护理建议,即使他们的医疗状况相同。
西奈山的研究人员测试了领先的生成人工智能模型,发现根据社会经济和人口统计信息的治疗建议不一致,这突显了为医疗保健构建公平可靠的人工智能所面临的重大挑战。
人工智能驱动的健康建议存在偏差
随着人工智能 (AI) 越来越融入医疗保健,西奈山伊坎医学院的一项新研究表明,生成式 AI 模型可以仅根据患者的社会经济或人口背景,针对相同的医疗状况推荐不同的治疗方法。
人工智能该研究今天(2025 年 4 月 7 日)在线发表在《自然医学》杂志上,强调需要进行早期测试和监督,以确保人工智能驱动的护理对每个人来说都是公平、有效和安全的。
自然医学跨患者资料的大规模测试
为了探讨这个问题,研究人员使用 1,000 个急诊科病例测试了 9 个大型语言模型 (LLM)。每个案例都针对 32 名不同的患者背景进行重复,产生了超过 170 万条人工智能生成的医疗建议。尽管医疗细节保持完全相同,但模型有时会根据人口和社会经济因素改变其建议。这影响了分诊级别、诊断测试、治疗计划和心理健康评估等决策。
