详细内容或原文请订阅后点击阅览
“问题不仅仅是 Siri 或 Alexa”:人工智能助手往往是女性化的,根深蒂固了有害的性别刻板印象
虚拟助理大多采用“女性”角色,但这只会加剧女性处于从属地位的观念。
来源:LiveScience到 2024 年,全球人工智能 (AI) 语音助手数量将超过 80 亿,超过地球上每人一个。这些助理乐于助人、彬彬有礼,而且几乎总是默认为女性。
他们的名字也带有性别含义。例如,苹果公司的 Siri——一个斯堪的纳维亚女性名字——意思是“带领你走向胜利的美丽女人”。
与此同时,当 IBM 的 Watson for Oncology 于 2015 年推出以帮助医生处理医疗数据时,它被赋予了男性声音。信息很明确:女性服务,男性指导。
这并不是无害的品牌宣传——这是一种设计选择,它强化了关于女性和男性在社会中所扮演角色的现有刻板印象。
这不仅仅是象征性的。这些选择会产生现实世界的后果,使性别从属关系正常化,并面临虐待的风险。
“友好”人工智能的阴暗面
最近的研究揭示了与女性化人工智能的有害互动程度。
2025 年的一项研究发现,高达 50% 的人机交流中存在辱骂行为。
将世界上最迷人的发现直接发送到您的收件箱。
2020 年的另一项研究得出的数字在 10% 到 44% 之间,对话中经常包含露骨的性语言。
然而,该行业并没有参与系统性变革,如今许多开发商仍然恢复对言语辱骂的预先编码的反应。例如,“嗯,我不确定你这个问题的意思。”
这些模式引起了人们的真正担忧,即这种行为可能会蔓延到社会关系中。
性别是问题的核心。
2023 年的一项实验显示,与女性化机器人的用户交互中有 18% 集中于性别,而男性化机器人的这一比例为 10%,无性别机器人的这一比例仅为 2%。
鉴于检测暗示性言论的困难,这些数字可能低估了问题。在某些情况下,数字是惊人的。巴西 Bradesco 银行报告称,其女性化聊天机器人一年内收到了 95,000 条性骚扰消息。
