相同的症状,不同的护理:AI的隐藏偏见如何改变医疗决定

AI工具旨在协助医疗决策可能不会平等治疗所有患者。一项新的研究表明,这些系统有时会根据患者的背景改变护理建议,即使他们的医疗状况相同。西奈山的研究人员测试了领先的生成AI模型,并根据社会经济[...]

来源:SciTech日报
生成式人工智能可以根据患者的背景提供不同的医疗建议,即使他们的症状相同。西奈山研究人员正在推动加强保障和监督。图片来源:SciTechDaily.com

旨在协助医疗决策的人工智能工具可能无法平等地对待所有患者。一项新的研究表明,这些系统有时会根据患者的背景改变护理建议,即使他们的医疗状况相同。

西奈山的研究人员测试了领先的生成人工智能模型,发现根据社会经济和人口统计信息的治疗建议不一致,这突显了为医疗保健构建公平可靠的人工智能所面临的重大挑战。

人工智能驱动的健康建议存在偏差

随着人工智能 (AI) 越来越融入医疗保健,西奈山伊坎医学院的一项新研究表明,生成式 AI 模型可以仅根据患者的社会经济或人口背景,针对相同的医疗状况推荐不同的治疗方法。

人工智能

该研究今天(2025 年 4 月 7 日)在线发表在《自然医学》杂志上,强调需要进行早期测试和监督,以确保人工智能驱动的护理对每个人来说都是公平、有效和安全的。

自然医学

跨患者资料的大规模测试

为了探讨这个问题,研究人员使用 1,000 个急诊科病例测试了 9 个大型语言模型 (LLM)。每个案例都针对 32 名不同的患者背景进行重复,产生了超过 170 万条人工智能生成的医疗建议。尽管医疗细节保持完全相同,但模型有时会根据人口和社会经济因素改变其建议。这影响了分诊级别、诊断测试、治疗计划和心理健康评估等决策。

根据人口统计数据升级护理

全球合作,打造更安全的人工智能

现实世界验证的后续步骤

DOI: 10.1038/s41591-025-03626-6 谷歌 发现 新闻