AI与人类一样过于自信和偏见,研究表明

非理性的倾向 - 包括热手,基本忽视和沉没成本谬误 - 通常出现在AI系统中,质疑它们的实际有用。

来源:LiveScience

尽管人类和人工智能(AI)系统“思考”却大不相同,但新的研究表明,AIS有时会像我们一样做出非理性的决定。

人工智能 “思考”非常不同

在一项新的研究中,几乎一半的场景中,Chatgpt表现出许多最常见的人类决策偏见。这些发现发表在4月8日。在《人类心理学中发现的18种知名认知偏见》中,这些发现是第一个评估Chatgpt行为的发现。

制造与服务运营管理

该论文的作者来自加拿大和澳大利亚的五个学术机构,测试了OpenAI的GPT-3.5和GPT-4,这是为ChatGpt提供动力的两种大语言模型(LLMS),并发现尽管其推理是“令人印象深刻的一致性”,但它们远非免疫对人类的毛病。

此外,这种一致性本身具有积极和负面影响。

“经理将通过使用这些工具来解决具有清晰,公式化解决方案的问题,”研究主任Yang Chen的研究负责人Yang Chen在一份声明中说。 “但是,如果您将它们用于主观或偏好驱动的决定,请仔细踩踏。”

Yang Chen 语句 这项研究采用了众所周知的人类偏见,包括规避风险,过度自信和捐赠效应(在这里我们为拥有的事物分配了更多价值),并将其应用于给出的提示,以查看它是否会像人类一样陷入相同的陷阱。 合理决定 - 有时 科学家在库存管理或供应商谈判等领域中询问了传统心理学和现实商业适用性的LLMS假设问题。目的是不仅要了解AI是否会模仿人类的偏见,而且还要在询问来自不同商业领域的问题时仍会这样做。 Meena Andiappan Yang Chen

语句

这项研究采用了众所周知的人类偏见,包括规避风险,过度自信和捐赠效应(在这里我们为拥有的事物分配了更多价值),并将其应用于给出的提示,以查看它是否会像人类一样陷入相同的陷阱。

合理决定 - 有时

科学家在库存管理或供应商谈判等领域中询问了传统心理学和现实商业适用性的LLMS假设问题。目的是不仅要了解AI是否会模仿人类的偏见,而且还要在询问来自不同商业领域的问题时仍会这样做。Meena Andiappan