要消除算法偏差,仅仅从数据中排除受保护的属性(通过无意识实现公平)不仅不够,而且适得其反。即使排除受保护的指标,算法通过三角测量进行歧视的风险仍然存在,从而导致抵押贷款分配等出现歧视性结果(Fuster、Goldsmith-Pinkham 和 Ramadorai,2022 年)。统计模型会从数据中提取尽可能多的信息,以帮助它们优化性能,而机器学习模型在这项任务上表现出色:深度学习甚至可以从未标记的医学影像中预测种族(Banerjee 等人,2021 年)。相反,受保护的属性可用于主动监控、识别和纠正算法偏差。这种策略(通过意识实现公平)还允许使用机器学习模型主动检测现有决策过程中的偏差,无论是否自动化(Martinello、Mønsted、Matin、Steffensen 和 Laursen,2021 年)。