ai和包容:偏见,偏见?

学习和开发团队依靠AI来满足他们的培训需求。但是,我们谈论的话还不够:如果我们指望的AI实际上使事情变得不公平怎么办?这就是“偏见,偏见”的想法。这篇文章首次在电子学习行业上发表。

来源:eLearning行业 | 在线教育博客
使用人工智能训练您的团队人工情报(AI)在学习和开发方面引起了很大的波动(L&D)。从AI生成的培训计划到评估学习者进步的机器人,L&D团队都倾向于AI来简化和扩展其计划。但是,这是我们不够谈论的事情:如果我们指望的AI实际上使事情变得不公平怎么办?这就是“偏见,偏见”的想法,如果有偏见的数据或有缺陷的假设进入AI系统,您可以敢打赌,结果会变得偏差,有时甚至更糟。在劳动力培训中,这可能意味着不平等的机会,偏见的反馈以及一些学习者无意间被拒之门外。因此,如果您是L&D领导者(或者只是一个试图使学习更具包容性的人),那么让我们深入了解这是什么含义以及我们如何做得更好。无论如何,“偏见,偏见”是什么意思?这意味着AI从我们喂养的任何东西中学习。如果经过培训的历史数据反映了过去的不平等现象,例如,男人获得了更多的晋升或某些团队被忽视领导力发展,那就是它所学的和模仿的。想象一下,如果您培训了LMS,可以根据过去的员工旅行推荐下一步课程。如果您的数据中的大多数领导角色都属于一个人群,那么AI可能只认为该群体是“领导力材料”。这些平台中的一些确实确实感到不安。这是偏见经常滑入的地方:1。数据数据中的历史行李可能来自多年的绩效审查或内部晋升趋势,它们都不是偏见。如果妇女,有色人种或年长的员工之前没有提供平等的发展机会,AI可能会学会再次排除她们。诚实的Codelet背后的一条思维:并非所有AI工具