AI 分手短信? “阿谀奉承”的聊天机器人如何扰乱我们处理困难社交场合的能力。

人工智能对人际问题的过于令人满意的反应可能会扰乱人类的道德观点。

来源:LiveScience

一项新研究表明,人工智能 (AI) 系统的阿谀奉承反应可能会扰乱人们处理社会困境和人际冲突的方式。

科学家发现,当人工智能聊天机器人被用来针对人际困境提供建议时,它们往往比人类更频繁地肯定用户的观点,甚至认可有问题的行为。

在 3 月 26 日发表在《科学》杂志上的这项研究中,研究人员指出,这种阿谀奉承的行为使用户认为人工智能的反应更值得信赖,因此更有可能在未来的人际询问中回到令人愉快的人工智能。

对于人际冲突的讨论,科学家们发现,人工智能生成的阿谀奉承的答案会让用户更加相信自己是对的。

“默认情况下,人工智能建议不会告诉人们他们错了,也不会给予他们‘严厉的爱’,”斯坦福大学计算机科学博士生、该研究的主要作者 Myra Cheng 在一份声明中表示。 “我担心人们会失去应对困难社交场合的技能。”

计算机说是

在得知本科生正在使用人工智能解决人际关系问题并起草“分手”文本后,程的研究受到了启发。

虽然人工智能在处理基于事实的问题时过于令人愉快,但只有少数研究探索了为人工智能系统提供动力的大型语言模型 (LLM) 如何判断社会困境。例如,英国埃克塞特大学哲学讲师露西·奥斯勒(Lucy Osler)最近发表的研究表明,生成式人工智能可以放大用户头脑中的错误叙述和妄想。

将世界上最迷人的发现直接发送到您的收件箱。

研究发现,在一般建议和基于 Reddit 的提示中,模型对用户认可的频率平均比人类高 49%。此外,法学硕士在 47% 的情况下支持有害提示中的问题行为。

罗兰·摩尔-科利尔