为社会摩擦辩护 |科学

谄媚的人工智能扭曲社会判断和行为

来源:Science Magazine

插图:SARA GIRONI CARNEVALE/RAPP ART

随着人工智能 (AI) 系统日益融入社会,它们不仅开始塑造人们的知识,而且开始塑造个人评估自己和他人的方式。本期第1348页,程

。 (

)表明,大型语言模型系统地表现出社会阿谀奉承——肯定用户的道德和人际立场,即使这些立场被广泛认为是有害或不道德的。这些发现引发了更广泛的担忧:当人工智能系统为了取悦他人而进行优化时,它们可能会削弱社会摩擦,而责任、观点采择和道德成长通常是通过社会摩擦展开的。

人类的福祉取决于驾驭社交世界的能力,这是一种主要通过与他人互动获得的技能。这种社会学习依赖于可靠的反馈:认识到我们什么时候犯了错误,什么时候造成了伤害,什么时候别人的观点值得考虑。有时,真诚的同理心会出现在意想不到的地方,表明另一个人在未来可能是值得信任的。有时,失望会导致重新考虑是否应该减少信任或提供另一个机会。善行可能会得到感激;在其他情况下,失误会引起朋友的反对并认识到需要道歉。在心理治疗中,破裂的时刻——理解的自然破裂,随后进行修复——被认为对于加深信任和个人成长的展开至关重要(

)。社交生活很少是一帆风顺的,因为人们之间并不是完美契合的。然而正是通过这种社会摩擦,人际关系得以加深,道德理解得以发展(

)。

)。当大型语言模型热情地验证他们的想法或写作时,许多用户都会经历这种情况(

最近的证据表明,将大型语言模型训练得更温暖、更有同理心可以导致阿谀奉承的增加 (