详细内容或原文请订阅后点击阅览
当人工智能陷入困境时,会发生什么:根据麻省理工学院的新研究,聊天机器人正在利用有需要的人
麻省理工学院的一项新研究向这个人工智能池塘扔了一块相当大的石头,让水咕咕地提出一个令人不安的问题:如果最需要高质量信息的人得到的人工智能服务最少怎么办?该研究得出的结论是,广泛使用的人工智能聊天机器人通常会向那些被认为更脆弱的用户(包括非英语母语者和正规教育水平较低的用户)提供不太准确或不太有用的信息。这项发表在麻省理工学院报告中的研究比所有那些闪亮的人工智能手册所暗示的更加细致。研究人员基本上 [...]
来源:AI 2 People麻省理工学院的一项新研究向这个人工智能池塘扔了一块相当大的石头,让池水咕咕地提出一个令人不安的问题:如果最需要高质量信息的人得到的人工智能服务最少怎么办?
研究得出的结论是,广泛使用的人工智能聊天机器人通常会向那些被认为更脆弱的用户(包括非英语母语者和正规教育水平较低的用户)提供不太准确或不太有用的信息。
这项发表在麻省理工学院报告中的研究比所有那些闪亮的人工智能手册所暗示的更加细致。
研究人员基本上通过改变提问方式(语法上、语言上以及有关用户教育水平的提示)对一些流行的聊天机器人进行了某种压力测试,瞧!
当语法和语言较差时,聊天机器人会给出较差的答案。就像不以貌取人的数字版本一样。
我几乎可以听到沮丧的用户在想:“但我问了同样的事情!为什么我得到的反应更糟糕?”那么这不是什么小错误。一个重大的公平问题。
显然,人工智能存在偏见的问题并不新鲜——美国国家标准与技术研究所已经表示,根据 NIST 的人工智能风险管理框架,如果管理和缓解不当,人工智能可能“加剧用于训练这些系统的数据中存在的社会偏见”——但量化它是另一回事。
实际上,这是目前关于算法偏见的全球对话的一部分 - 世界经济论坛将公平和包容性视为值得信赖的人工智能的关键挑战,并表示“人工智能驱动的决策需要公平的结果是人工智能可信度面临的最重要的问题之一”。
这是有道理的:当人工智能聊天机器人成为获取从健康到法律到教育等各种信息的主要门户时,不平等的服务不仅仅是令人沮丧的。它具有潜在的破坏性。
