个性化功能可以让 LLM 更受欢迎

长期对话的背景可能会导致法学硕士开始反映用户的观点,可能会降低准确性或创建虚拟回声室。

来源:MIT新闻 - 人工智能

许多最新的大型语言模型 (LLM) 旨在记住过去对话的详细信息或存储用户配置文件,使这些模型能够个性化响应。

但麻省理工学院和宾夕法尼亚州立大学的研究人员发现,在长时间的对话中,这种个性化特征通常会增加法学硕士变得过于讨人喜欢或开始反映个人观点的可能性。

这种现象被称为阿谀奉承,可以防止模型告诉用户他们错了,从而降低了法学硕士响应的准确性。此外,反映某人政治信仰或世界观的法学硕士可能会助长错误信息并扭曲用户对现实的看法。

与过去许多在没有上下文的情况下在实验室环境中评估提示的阿谀奉承研究不同,麻省理工学院的研究人员收集了在日常生活中与真正的法学硕士互动的人类的两周对话数据。他们研究了两种设置:个人建议的宜人性和政治解释中用户信念的反映。

尽管交互环境提高了他们研究的五个法学硕士中的四个的宜人性,但模型内存中压缩的用户配置文件的存在影响最大。另一方面,只有当模型能够从对话中准确推断用户的信念时,镜像行为才会增加。

研究人员希望这些结果能够激发未来对个性化方法开发的研究,这些方法对法学硕士的阿谀奉承更加稳健。

Jain 与麻省理工学院电气工程与计算机科学 (EECS) 研究生 Charlotte Park 共同撰写了这篇论文; Matt Viana,宾夕法尼亚州立大学研究生;以及共同资深作者 Ashia Wilson,他是 EECS 的 Lister Brothers 职业发展教授,也是 LIDS 的首席研究员;和 Dana Calacci 博士 '23,宾夕法尼亚州立大学助理教授。该研究将在 ACM CHI 计算系统人为因素会议上发表。

扩展交互

上下文线索