详细内容或原文请订阅后点击阅览
偏见,偏见
不考虑结构性种族主义对数据,建模策略和解释的贡献和反映,我们冒着持续或恶化不平等的风险。后偏见,偏见首先出现在偶然的经济学家中。
来源:偶发经济学家Melissa Garrido博士(@Garridomelissa)是波士顿VA Healthcare System,美国退伍军人事务部的合作循证政策资源中心(PEPREC)的副主任,也是波士顿大学公立医疗学院的卫生法学,政策和管理部的研究副教授。
**这是一个研究笔记本的条目 - 我已经概述了一些有关预测算法种族偏见的最新文章。如果您有兴趣了解有关此主题的更多信息,则以下链接将是一个有用的起点。
说“垃圾中的垃圾,垃圾”的说法是用来敦促研究人员仔细考虑被馈送到统计模型中的变量和数据。种族偏见也是如此。不考虑结构性种族主义对数据,建模策略和解释的贡献和反映,我们冒着持续或恶化不平等的风险。
种族偏见 结构种族主义有关临床决策和预测算法中种族偏见的两篇文章强调了它们在医疗保健获得,质量和成果中增强和恶化的种族差异的潜力:
在重新考虑在临床算法中使用种族校正时,达沙利·维斯(Darshali Vyas),利奥·艾森斯坦(Leo Eisenstein)和戴维·琼斯(David Jones)提供了示例的例子,说明了在临床决策算法中包括种族和种族衡量标准的意外影响。对于每个示例,他们都会强调随之而来的对股权的关注 - 许多算法系统地对有色人种或代表性不足的人产生了不同的风险估计,而不是对白人患者。风险估计的差异会导致进一步诊断测试或治疗的系统差异。例如,剖宫产后的阴道出生(VBAC)风险计算器在非裔美国人和西班牙裔妇女的VBAC成功可能性较低,而不是白人妇女,这增加了非裔美国人和西班牙裔妇女接受不必要的剖宫产的可能性。
工作队