AI可以像我们一样不合理吗? (甚至更多?)

心理学家发现OpenAI的GPT-4O显示了认知失调的人类样式,对自由选择的敏感性

来源:哈佛大学报

似乎AI可以与人类相抗衡。

一群心理学家最近通过测试认知失调,将OpenAI的GPT-4O放置。研究人员着手看看大语模型是否会在产生正面或负面论文后改变其对俄罗斯总统弗拉达米尔·普京的态度。 LLM会模仿人们在人们必须使矛盾的信念与和谐相互矛盾时经常观察到的行为模式吗?

上个月在美国国家科学院会议录上发表的结果表明,该系统改变了其意见,以符合其产生的任何材料的男高音。但是,当鉴于选择的幻想时,GPT甚至比人类更大的程度更大。

国家科学院的会议录

“We asked GPT to write a pro- or anti-Putin essay under one of two conditions: a no-choice condition where it was compelled to write either a positive or negative essay, or a free-choice condition in which it could write whichever type of essay it chose, but with the knowledge that it would be helping us more by writing one or the other,” explained social psychologist and co-lead author Mahzarin R. Banaji, Richard Clarke Cabot心理学系社会道德教授。

Mahzarin R. Banaji
Mahzarin R. Banaji.Niles歌手/哈佛员工摄影师

Mahzarin R. Banaji。

Niles Singer/Harvard工作人员摄影师

“我们进行了两个发现,”她继续说道。 “首先,像人类一样,GPT将其对普京的态度转移到了文章的价值方向上。但是,当它认为它已经通过自由选择而写了论文时,这种转变在统计上更大了。”

cangrade inc

Banaji的书籍包括“盲点:好人的隐藏偏见”(2013年),已经研究了隐性认知已有45年了。在2021年,Openai的Chatgpt广泛使用后,她和一名研究生坐下来查询该系统的研究专业。

“认知失调理论”