保险公司和雇主通常出于经济动机而歧视那些未来更有可能承担医疗费用的人。尽管如此,许多联邦和州法律仍试图限制这种基于健康的歧视。例子包括《怀孕歧视法案》(PDA)、《美国残疾人法案》(ADA)、《就业年龄歧视法案》(ADEA)和《遗传信息非歧视法案》(GINA)。但本文认为,当雇主或保险公司依靠机器学习人工智能(AI)来指导他们的决策时,这些法律无法可靠地防止基于健康的歧视。归根结底,这是因为机器学习人工智能本质上是结构化的,可以识别和依赖代理特征,这些特征可以直接预测它们被编程为最大化的任何“目标变量”。由于员工和被保险人的未来健康状况实际上直接预测了雇主和保险公司无数表面上中立的目标,因此机器学习人工智能往往会产生与基于健康相关因素的故意歧视类似的结果。尽管《平价医疗法案》(ACA)等法律可以通过禁止所有未经事先批准的歧视形式来避免这种结果,但这种方法并不广泛适用。让问题更加复杂的是,几乎所有开发“公平算法”的技术策略在涉及基于健康的代理歧视时都行不通,因为健康信息通常是私密的,因此不能用来纠正不必要的偏见。尽管如此,本文最后还是提出了一种新的策略来对抗人工智能基于健康的代理歧视:限制公司使用与健康相关因素有很强可能联系的目标变量来编程人工智能的能力。
主要关键词