详细内容或原文请订阅后点击阅览
被遗忘权影响 AI 系统的公平性
CSIRO 的 Data61 开展的新研究探讨了机器学习对 AI 公平性和隐私的影响,揭示了从机器学习模型中删除敏感数据的潜在权衡。该研究强调了道德的必要性……
来源:英语研究被遗忘权影响 AI 系统的公平性
发布于 2024 年 2 月 5 日星期一 敲击铅笔 | Rennett Stowe 在 Flickr 上 Rennett Stowe 在 Flickr 上在一个日益受数字数据控制的世界中,隐私和公平已成为科技行业的首要关注点,尤其是随着机器学习系统的出现。CSIRO 的 Data61 的研究人员认识到这些系统迫切需要根据要求“忘记”数据(这一概念称为“被遗忘权”或 RTBF),因此深入研究了机器反学习方法的公平性影响。他们的开创性研究题为“被遗忘还是公平:揭示机器反学习方法的公平性影响”,这是首次探索机器反学习如何影响人工智能 (AI) 系统中的公平性。
机器学习旨在高效地从机器学习模型中删除敏感数据,以遵守 RTBF 请求。然而,这个过程可能会无意中扭曲人工智能系统的公平性,引发道德问题。这项研究集中于两种机器学习技术,将它们与传统的再训练方法在各种公平性数据集和删除策略上进行比较。研究结果表明,一种方法,即 SISA,在非均匀数据删除的情况下,与其他方法相比,始终能产生更好的公平性结果。
对于普通读者来说,这些发现的重要性怎么强调都不为过。随着我们将越来越重要的任务(从招聘决策到贷款审批)委托给机器,它们决策的完整性不仅取决于准确性,还取决于公平性。这项研究阐明了通过机器学习确保数据隐私所涉及的潜在公平性权衡,指导软件工程师在人工智能开发中做出更明智、更合乎道德的选择。
标签:计算机科学 计算机科学