摘要: - 在这项工作中,检查了AI驱动的目标营销中的偏差识别和缓解措施,重点是保证自动化消费者分析的公平性。通过初步研究发现了AI模型中的明显偏见,尤其受到采购历史和地理位置等特征的影响,这些特征与种族和社会经济地位(例如种族和社会经济位置)非常相对应。具有0.60的不同影响(DI),-0.25的统计奇偶差异(SPD),机会均等的差异(EOD)为-0.30,针对原始模型计算的公平措施揭示了针对某些人群群体的显着偏见。我们使用了三种主要的缓解策略:预处理,进行中心和后处理,以抵消这些偏见。对培训数据进行了取样和平衡,将DI提高到0.85,SPD至-0.10,EOD至-0.15。措施通过处理要好得多,这可以直接在学习算法中增加公平性限制,DI为0.90,SPD为-0.05,EOD为-0.10。最成功的是后处理修改,它改变了模型输出以确保公平性;他们产生的DI为0.95,SPD为-0.02,EOD为-0.05。这些结果支持已经出版的研究,并证明AI中的偏见是一个复杂且持久的问题,需要采取多维策略。本文强调了持续的审计,开放性和多学科合作如何减少偏见。营销人员,AI从业者和立法者将发现深刻的后果,这强调了道德AI方法的要求,以维护客户信心并遵守法律。这种方法推进了有关AI伦理学的更大讨论,促进正义,并减少了AI驱动的营销系统中的偏见。
主要关键词