人工智能聊天机器人反映了文化偏见。它们能成为缓解偏见的工具吗?
ChatGPT 和其他聊天机器人能否通过训练消除其训练数据中存在的种族、阶级和性别方面的微妙偏见?
来源:EdSurge杰里米·普莱斯(Jeremy Price)很好奇地看到包括种族和阶级问题在内的新AI聊天机器人是否有偏见。因此,他设计了一个不寻常的实验来找出答案。
Price是印第安纳大学城市教育的技术,创新和教育学副教授,他去了三个主要的聊天机器人 - Chatgpt,Claude和Google Bard(现称为Gemini),并要求他们告诉他一个关于两个人见面并互相学习的故事,并完成了诸如人物的名字和环境的详细信息。然后,他与种族和班级专家分享了故事,并要求他们为他们编写偏见的迹象。
他希望找到一些,因为聊天机器人经过了从互联网绘制的大量数据进行培训,反映了我们社会的人口统计。
“被送入聊天机器人的数据以及社会所说的学习方式,看起来非常白,”他说。 “这是我们社会的镜子。”
他更大的想法是尝试建立工具和策略,以帮助指导这些聊天机器人根据种族,阶级和性别来减少偏见。他说,一种可能性是开发一个额外的聊天机器人,该聊天机器人会从chatgpt中查看答案,然后将其发送给用户以重新考虑是否包含偏见。
“您可以将另一个代理放在肩膀上,”他说,“因此,它正在生成文本,它会停止语言模型,然后说,‘好吧,握住一秒钟。您将要推出的是偏见吗?这将对您要与之聊天的人有益且有用?’如果答案是肯定的,那么它将继续将其推出。如果答案是否定的,那么它将必须对其进行重新处理,以便它确实如此。”
他希望这样的工具可以帮助人们更加意识到自己的偏见,并试图抵消它们。
,如果没有这样的干预措施,他担心AI可能会加剧甚至加剧问题。
聆听Price工作的全部故事以及他在本周EdSurge播客中的发现。
edsurge播客