研究:人工智能聊天机器人向易受攻击的用户提供不太准确的信息

麻省理工学院建设性沟通中心的研究发现,对于英语水平较低、受教育程度较低和非美国血统的用户来说,领先的人工智能模型表现较差。

来源:MIT新闻 - 人工智能

大语言模型 (LLM) 一直被认为是可以实现全球信息访问民主化的工具,无论个人背景或位置如何,都可以通过用户友好的界面提供知识。然而,麻省理工学院建设性沟通中心 (CCC) 的新研究表明,这些人工智能系统实际上可能对最能从中受益的用户表现更差。

麻省理工学院媒体实验室 CCC 的研究人员进行的一项研究发现,最先进的人工智能聊天机器人——包括 OpenAI 的 GPT-4、Anthropic 的 Claude 3 Opus 和 Meta 的 Llama 3——有时会为英语水平较低、受过正规教育或来自美国以外的用户提供不太准确和不太真实的响应。这些模型还拒绝以更高的比例回答这些用户的问题,并且在某些情况下,以居高临下或居高临下的语言进行回应。

“法学硕士有助于解决全球信息获取不公平问题的前景激励了我们,”主要作者 Elinor Poole-Dayan SM ‘25 说道,她是麻省理工学院斯隆管理学院的技术助理,作为 CCC 附属机构和媒体艺术与科学硕士生领导了这项研究。 “但是,如果不确保所有用户(无论语言、国籍或其他人口统计数据)安全地减轻模型偏差和有害倾向,这一愿景就无法成为现实。”

一篇描述这项工作的论文“LLM Targeted Underperformance Disproportionately Impacts Unproportionately Impacts Vulnerable Users”在一月份的 AAAI 人工智能会议上发表。

多个维度系统性表现不佳

该研究还研究了原产国如何影响模型性能。研究人员对来自美国、伊朗和中国的具有同等教育背景的用户进行了测试,发现伊朗用户的 Claude 3 Opus 在这两个数据集上的表现尤其差。

拒绝和居高临下的语言