详细内容或原文请订阅后点击阅览
研究揭示商业人工智能系统中的性别和种族违规行为(+视频)
根据麻省理工学院和斯坦福大学本月在公平、责任和透明度会议上发表的最新研究,来自著名科技公司的三个商业面部分析项目表现出个人和性别偏见。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)根据麻省理工学院和斯坦福大学本月在公平、责任和透明度会议上发表的最新研究,来自著名科技公司的三个商业面部分析项目表现出个人和性别偏见。
在研究人员的实验中,这三个程序在确定浅肤色男性性别方面的错误率从未低于0.8%。然而,对于深色皮肤的女性来说,其中一个案例的错误率增加到 20% 或更高,另外两个案例的错误率则超过 34%。
这些发现提出了现代神经网络如何训练和评估的问题,现代神经网络通过在巨大数据集中搜索模式来学习执行计算任务。例如,文章称,美国一家大型科技公司的研究人员表示,他们开发的软件的面部识别准确率超过97%。但在用于评估的数据集中,男性的有效性仅超过77%,白人的有效性超过83%。
“这种方法真正重要的是如何将该方法应用于其他应用,”麻省理工学院媒体实验室公民媒体小组的研究员、这篇新论文的高级作者 Joy Buolamwini 说。 - 当您寻找犯罪嫌疑人或解锁手机时,可用于确定一个人的性别的相同数据驱动技术也可用于识别一个人。这不仅仅是计算机视觉。我真的希望这也能让人们更多地关注其他差异。”