Loading...
机构名称:
¥ 1.0

机器学习正在个人和人口层面使用,以支持风险分层、预测模型和诊断与治疗的决策支持。由于这些模型是根据现实世界的数据开发的,因此算法反映了当前和历史偏见,这些偏见可能会加剧种族和民族、性别认同、性取向、残疾、年龄、社会阶层和地理位置的不平等。此回应将重点关注 NIH 需要解决的数据和系统问题,以支持 AI/ML 公平研究。为了解决公平问题,NIH 需要多样化的数据来源,涵盖广泛的人口统计、社会经济和健康相关数据。这些应提供社会和经济背景以及心理社会风险因素,例如种族、年龄、性别、经济状况、既往病史、住房状况、临床接触内外的患者体验,以及充分代表人群多样性的数据。由于临床诊疗之外的数据不是以常规或标准化方式捕获的,因此在获取和管理这些高度复杂和敏感的数据方面存在重大挑战。强大的信息学方法包括:1)了解报告数据的当前状况,包括评估报告数据是否代表公平相关的努力,以及是否足以识别在这些数据上训练的算法中的偏见。2)确定和实施策略以提高现有数据的质量和完整性。这些应包括:a)持续的数据质量识别、解决和验证,以解决差距、不准确性和偏见;b)预先识别数据质量问题,以便快速分类到报告实体;c)统计估算措施以填补空白。3)跟踪这些策略的有效性以改进现有数据。4)识别新的数据来源。这些来源可能包括诊所层面的社会需求筛查、大型公共卫生队列(如国家健康和营养检查调查 (NHANES))和监测系统(如行为风险因素监测系统 (BRFSS))、大型研究队列研究(如美国国立卫生研究院的精准医学计划、我们所有人研究计划和国家 COVID 队列协作 (N3C))——它们整合了参与者从不同群体收集的数据源。其他潜在来源包括移动或遥感设备和在线地理编码数据,这些数据可能提供有关公平性的宝贵见解。5) 模型评估。虽然有不断发展的分析技术来评估和解释可能反映社会偏见的算法偏见,但开发、测试和使用这些模型的研究人员需要对意外结果保持敏感,并识别数据中和训练模型的专家中的偏见。社区参与和包括那些代表性不足的人(偏见最受影响的人)的观点是必不可少的一步。

AIM-AHEAD RFI 响应

AIM-AHEAD RFI 响应PDF文件第1页

AIM-AHEAD RFI 响应PDF文件第2页

AIM-AHEAD RFI 响应PDF文件第3页

AIM-AHEAD RFI 响应PDF文件第4页

AIM-AHEAD RFI 响应PDF文件第5页