详细内容或原文请订阅后点击阅览
人工智能从人们那里拾取了不良偏见
你不应该认为人工智能会自动消除人类有时固有的关于种族和性别的偏见。相比之下,许多在线服务和应用程序的最先进版本的人工智能中使用的机器学习(ML)算法可以轻松模仿这些偏差,并将其编程到训练过程中。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)你不应该认为人工智能会自动消除人类有时固有的关于种族和性别的偏见。相比之下,许多在线服务和应用程序的最先进版本的人工智能中使用的机器学习(ML)算法可以轻松模仿这些偏差,并将其编程到训练过程中。
最近的一项研究表明,接受现代英语文本训练的人工智能会表现出与这些文本中相同的无意识的人类偏见。
研究结果对于全球科技公司采用 ML AI 具有巨大影响。心理学家此前已经展示了偏见如何在称为内隐关联测试的实验中不知不觉地表现出来。在这项新研究中,研究人员通过在 Common Crawl 文本上训练 ML AI,复制了许多此类偏见,其中包括从互联网收集的 220 万个不同单词。
在一些比较中性的例子中,人工智能系统更喜欢将“花”和“音乐”这样的词与令人愉快的词联系起来,而不是“昆虫”和“武器”这样的词。但人工智能也更喜欢将欧洲和美国人的名字与“令人愉快的”刺激联系起来,而不是非洲裔美国人的名字。此外,“女人”和“女孩”这两个词通常更多地与艺术相关,而不是与数学相关。
要了解这个问题可能产生的后果,只需观看普利策奖决赛入围作品“机器偏见”,它展示了旨在预测未来犯罪的计算机程序如何对黑人产生偏见。