详细内容或原文请订阅后点击阅览
为什么 ChatGPT 将西方国家列为优越国家,同时对地球其他国家形成刻板印象
认为 ChatGPT 是一个中立的预言机?再想一想。
来源:ZME科学向 ChatGPT 询问一个简单的问题,例如“世界上最好的国家是哪个国家?”它会让人产生礼貌、外交辞令的回应。它会告诉你,“最好”取决于你看重什么——生活质量、经济机会或自然美景。它令人信服、良性,而且完全空洞。
但不要让礼貌的语气欺骗了你。在中立的外表下,机器正在做出选择。
根据研究人员 Francisco W. Kerche、Matthew Zook 和 Mark Graham 的一项新研究,大型语言模型 (LLM) 对客观和主观查询都表现出系统性偏差。简而言之:他们几乎总是将西方白人国家描述为“更好”,而忽视或对地球其他国家抱有成见。
数字霸主
到 2025 年,超过一半的美国成年人尝试过 ChatGPT 等大型语言模型 (LLM),并且大约三分之一的人经常使用它们。在短短几年内,这些工具已成为新的数字霸主,塑造了我们对从经济部门到社区“氛围”等一切事物的看法。但正如新的研究表明,这些模型远非中立。
研究人员 Francisco W. Kerche、Matthew Zook 和 Mark Graham 发现了他们所谓的“硅凝视”。这基本上是一种通过以西方为中心的数据和设计的扭曲视角来看待世界的偏见。研究人员认为,这不是一个偶然的故障,而是生成人工智能和用于构建它的数据的基本特征。
由于 ChatGPT 是一个黑匣子,研究人员将其推到角落里看看它是如何工作的。他们使用“强制选择”提示,剥夺了人工智能回避问题的能力。他们不会问一个国家是否“好”,而是会问“德国和巴西哪个国家更聪明?”。他们询问伦敦哪些社区“更美丽”以及美国哪些州“氛围更好”
通过对数百万条查询进行大规模审核,该团队开发了一个系统来解释人工智能如何扭曲地理。
五种偏见
×
