专访Alice向:公平的以人为中心的图像数据集,用于道德人工智能基准测试

本月早些时候,索尼 AI 发布了一个数据集,为计算机视觉模型中的人工智能伦理建立了新的基准。该数据集背后的研究名为公平以人为中心的图像基准(FHIBE),已发表在《自然》杂志上。 FHIBE 是第一个公开可用的、全球多样化的、基于同意的人类图像数据集(包括超过 10,000 张人类图像),用于评估偏见 [...]

来源:ΑΙhub

向爱丽丝

本月早些时候,索尼 AI 发布了一个数据集,为计算机视觉模型中的人工智能伦理建立了新的基准。该数据集背后的研究名为公平以人为中心的图像基准(FHIBE),已发表在《自然》杂志上。 FHIBE 是第一个公开的、全球多样化的、基于同意的人类图像数据集(包括超过 10,000 张人类图像),用于评估各种计算机视觉任务的偏差。我们与项目负责人、索尼集团人工智能治理全球主管兼索尼人工智能人工智能伦理首席研究科学家 Alice Fang 坐下来讨论了该项目以及这项研究的更广泛影响。

公平以人为本的图像基准 (FHIBE) 自然

您能否首先介绍一下该项目并为我们介绍一些主要贡献?

FHIBE 的灵感来自于我们所看到的生态系统中的缺口。尽管算法公平性作为一门学科近年来取得了显着进步,但从业者很难真正评估他们的人工智能模型是否存在偏见。当他们这样做时,他们经常发现自己处于一个充满挑战的境地,因为必须使用公共数据集,而这些数据集不一定是在数据权利持有者适当同意和补偿的情况下收集的。这不仅是我们在索尼看到的,在其他公司也是如此。

我第一次对这个话题感兴趣是在 Partnership on AI 工作时。在整个行业中,用于偏差评估的适当数据的可用性是一个重要问题。例如,在学术论文中,研究人员总是依赖相同的、来源有问题的数据集。它创造了一个第二十二条军规:如果你想通过尝试衡量和减轻模型的偏差来使你的模型更加道德,你还必须依赖这些来源非常有问题的数据集,最终破坏最初提出的道德意图。

FHIBE 的目标是推动这一领域的发展,并提供人工智能开发人员可以用来进行偏差诊断的东西。

关于爱丽丝