数据管理实践以最大限度地减少医疗 AI 中的偏见

确保医疗 AI 应用的医疗保健结果公平公正 AI 训练数据中的潜在偏见来源。图片由作者创建。AI 偏见是指由于训练数据中的偏见,AI 系统对不同群体产生不平等结果时的歧视。如果不加以缓解,AI 和机器学习模型中的偏见会通过在决策算法中嵌入歧视,使历史上被边缘化的群体所面临的歧视系统化和加剧。训练数据中的问题,例如不具代表性或不平衡的数据集、数据中嵌入的历史偏见以及有缺陷的数据收集方法,会导致模型出现偏差。例如,如果贷款决策应用程序是根据历史决策进行训练的,但黑人贷款申请人在这些历史决策中受到系统性的歧视,那么该模型将在其决策中嵌入这种歧视模式。偏见也可能是在特征选择和工程阶段引入的,其中某些属性可能会无意中充当敏感特征(例如种族、性别或社会经济地位)的代理。例如,在美国,种族和邮政编码密切相关,因此使用邮政编码数据训练的算法将间接将有关种族的信息嵌入其决策过程中。医疗环境中的人工智能涉及使用机器学习模型和算法来辅助诊断、治疗计划和患者护理。人工智能偏见尤其有害

来源:走向数据科学

数据管理实践可最大限度地减少医疗 AI 中的偏见

数据管理实践可最大限度地减少医疗 AI 中的偏见

确保医疗 AI 应用的医疗保健结果公平公正

AI 训练数据中的潜在偏见来源。作者创建的图形。
AI 训练数据中的潜在偏见来源。作者创建的图形。

AI 偏见是指由于训练数据中的偏见,AI 系统对不同群体产生不平等结果时的歧视。如果不加以缓解,AI 和机器学习模型中的偏见会通过将歧视嵌入决策算法中,使历史上被边缘化的群体所面临的歧视系统化和加剧。

AI 偏见

训练数据中的问题,例如不具代表性或不平衡的数据集、数据中嵌入的历史偏见以及有缺陷的数据收集方法,都会导致模型出现偏差。例如,如果贷款决策应用程序是根据历史决策进行训练的,但黑人贷款申请人在这些历史决策中受到系统性歧视,那么该模型将把这种歧视模式嵌入其决策中。在特征选择和工程阶段也可能引入偏见,其中某些属性可能会无意中充当敏感特征(如种族、性别或社会经济地位)的代理。例如,在美国,种族和邮政编码密切相关,因此使用邮政编码数据训练的算法将间接在其决策过程中嵌入有关种族的信息。

贷款决策应用程序 种族和邮政编码 皮肤癌预测模型

如何衡量人工智能偏见?

模型偏见和公平性的定义

使用人工智能公平性/偏见的定量指标,我们可以衡量和改进我们自己的模型。这些指标比较了历史上享有特权的群体和历史上没有特权的群体之间的准确率和选择概率。衡量人工智能模型如何公平对待不同群体的三个常用指标是:

Fairlearn