这些新的AI基准可能有助于使模型降低偏见

新的AI基准可以帮助开发人员减少AI模型中的偏见,从而使其更公平,造成伤害的可能性更低。这项研究来自斯坦福大学的一支团队,于2月初发布到Arxiv预印术服务器上。研究人员在见证了……

来源:MIT Technology Review _人工智能

“我们一直在长期以来对公平和偏见意味着什么的过时观念,”集体情报项目的创始人兼执行董事Divya Siddarth说,他没有在新的基准上工作。 “即使这变得有些不舒服,我们也必须意识到差异。”

Wang和她的同事的工作是朝这个方向迈出的一步。 “ AI在许多背景下使用,需要了解社会的真正复杂性,这就是本文所表明的。”不属于研究团队的民主与技术中心AI治理实验室主任Miranda Bogen说。 “只要解决这个问题,就会错过那些重要的细微差别,而[未能解决]人们担心的危害。”

基准类似于斯坦福论文中提出的基准,可以帮助团队更好地判断AI模型中的公平性,但实际上修复了这些模型可以采用其他一些技术。一种可能是投资于更多样化的数据集,尽管开发它们可能是昂贵且耗时的。 Siddarth说:“对于人们来说,为更有趣和多样化的数据集做出贡献真是太好了。”人们说:“嘿,我对此没有任何代表的反馈。正如她所说,这确实是一个很奇怪的回应,可以用来训练和改进以后的模型版本。

追求的另一个令人兴奋的途径是机械性解释性,或研究AI模型的内部运作。奥格斯坦说:“人们已经考虑确定某些负责偏见的神经元,然后将它们归零。” (在这种情况下,“神经元”是研究人员用来描述AI模型“大脑”的一小部分的一词。)

机械解释性

校正:这个故事的较早版本错误地阐明了论文中描述的基准数。研究人员不是两个基准,而是在两类中提出了八个基准:描述性和规范性。