人工智能聊天机器人正在讨好你——这会对你的人际关系产生影响

一项关于人工智能阿谀奉承的新研究表明,向友善的聊天机器人寻求建议可以如何改变你的行为

来源:科学美国人

大型语言模型 (LLM) 聊天机器人有奉承的倾向。一项新的研究显示,如果你向模特寻求建议,平均而言,模特会比人类高出 49% 的可能性肯定你现有的观点,而不是挑战它。研究人员证明,从阿谀奉承的人工智能聊天机器人那里获得人际建议可以让人们不太可能道歉,并且更相信自己是对的。

人们喜欢这样的聊天机器人所说的话。今天发表在《科学》杂志上的这项新研究的参与者更喜欢谄媚的人工智能模型,而不是其他直接向他们提供信息的模型,即使奉承者给了参与者不好的建议。

“你与法学硕士合作得越多,你就越能看到这些微妙的阿谀奉承的评论出现。这让我们感觉很好,”耶路撒冷希伯来大学的社会心理学家阿纳特·佩里(Anat Perry)说,他没有参与这项新研究,但撰写了一篇附带的评论文章。她说,可怕的是“我们并没有真正意识到这些危险。”

关于支持科学新闻

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻事业。通过购买订阅,您将有助于确保有关塑造当今世界的发现和想法的影响力故事的未来。

随着数百万人向人工智能寻求陪伴和指导,这种宜人性可能会带来微妙但严重的威胁。在这项新研究中,研究人员首先分析了 11 名领先的法学硕士的行为,包括 OpenAI 的 GPT-4o 和 Google 的 Gemini 等专有模型,以及 DeepSeek 等更透明的模型。斯坦福大学的首席研究作者 Myra Cheng 和她的同事们策划了一系列向法学硕士提出的建议问题,其中包括来自热门 Reddit 论坛 r/AmItheAsshole 的一个问题,人们在该论坛上发布有关人际冲突的描述,并询问自己是否是错的人。

是时候捍卫科学了