“一位经济学家、一位篮球运动员和一位穆斯林女性走进酒吧”——理解大型语言模型中的统计歧视

在我的 AI/ChatGPT 研讨会上,我经常要求 ChatGPT 创建一个“经济学家和穆斯林女性”的形象来说明人工智能是如何“思考”的。人工智能,从最广泛的意义上讲,从根本上讲是关于模式识别或预测的。在经济理论中,我们谈论“统计歧视”,当一个人因为 […] 而受到歧视时就会发生这种情况

来源:市场货币主义者

在我的 AI/ChatGPT 研讨会上,我经常要求 ChatGPT 创建“一位经济学家和一位穆斯林女性”的形象,以说明 AI 是如何“思考”的。从最广泛的意义上讲,人工智能从根本上讲是关于模式识别或预测的。

在经济理论中,我们谈论“统计歧视”,即一个人因某个群体的“中位数”或“平均”特征而受到歧视。一个典型的例子是,警方倾向于在各种检查中拦截更多的少数民族,因为这个群体在整个犯罪统计数据中所占比例过高。

同样,当人们说女性的收入低于男性时,这也是统计歧视。平均而言确实如此,但这并不意味着所有女性的收入都低于男性。通常,使用统计歧视是相当合理的。如果警察正在寻找罪犯,他们不会在学校课堂或养老院里搜寻。至少,如果他们想成功破案,他们不会从那里开始。

一般来说,我们的大脑使用“分组”来解决问题,这通常是一种明智的策略,至少在最初阶段是这样。像 ChatGPT 这样的大型语言模型 (LLM) 也不例外。因此,当 LLM 试图提供答案时,它基于从模型输入的数据中进行的模式识别。如果你要求 ChatGPT 创建一位经济学家和一位穆斯林女性的形象,你会得到一个“平均”的回应。

下面是一个例子。我要求 ChatGPT 画“一位经济学家、一位篮球运动员和一位穆斯林女性的有趣画”。我们看到了什么?

    经济学家是一名男子。他穿着西装打着领带(还有一个巨大的计算器)。篮球运动员是一名男子——他是黑人(而且很高)。穆斯林妇女戴着头巾。
  • 经济学家是一名男子。他穿着西装打着领带(还有一个巨大的计算器)。
  • 篮球运动员是一名男性——他是黑人(而且很高)。
  • 穆斯林妇女戴着头巾。
  • 普通现实很无聊

    普通现实很无聊 普通现实很无聊 这里

    喜欢这个:

    喜欢 正在加载...

    喜欢 喜欢