在阿姆斯特丹的高风险实验中创造了公平的福利AI

这个故事是MIT技术评论,Lighthouse报告和Trouw之间的合作伙伴关系,并得到了普利策中心的支持。两位期货汉斯·德·兹瓦特(Hans de Zwart)是一名体育老师的数字权利倡导者,他说,当他看到阿姆斯特丹计划让算法评估该市的每个福利申请人的计划时,他几乎……

来源:MIT Technology Review _人工智能

找到更好的方法

每当阿姆斯特丹居民申请福利时,案例工作者都会审查违规行为的申请。如果申请看起来可疑,则可以将其发送到纽约市的调查部门,这可能导致拒绝,纠正文书工作错误的请求或建议候选人收到较少的钱。一旦福利散布,调查也可以在以后进行;结果可能会迫使接收者偿还资金,甚至将一些债务推向债务。

官员对申请人和现有福利接收者都有广泛的权力。他们可以要求银行记录,将受益人召唤到市政厅,在某些情况下,他们对一个人的家进行了未经宣布的访问。随着调查(或固定的文书工作),可能会延迟付款。通常,根据Bodaar提供的数字,在超过一半的应用调查中,该市没有发现不法行为的证据。 Bodaar说,在这种情况下,这可能意味着该市“骚扰了人们”。

智能检查系统旨在通过最终替换最初的案例工作者来避免这些方案,后者标记了将哪些案件发送给调查部门。该算法将筛选应用程序,以根据某些个人特征确定最有可能涉及重大错误的人,并将这些案件重定向以进行执法团队的进一步审查。

如果一切顺利,该市在其内部文档中写道,该系统将改善其人类案例工作者的绩效,标记更少的福利申请人进行调查,同时确定有错误的案件比例。在一份文件中,该市预计该模型将防止多达125名单独的阿姆斯特达玛人面对收债,并每年节省240万欧元。

更少 更大