详细内容或原文请订阅后点击阅览
llms深入在线辩论,以创建人类信念的详细地图
大型语言模型(LLM),例如基于著名的对话平台Chatgpt的功能的模型,已被证明是对总结和生成书面文本非常有希望的。但是,它们也可能是进行植根于心理学,行为科学和其他科学学科的研究的有趣工具。
来源:英国物理学家网首页大型语言模型(LLM),例如基于著名的对话平台Chatgpt的功能的模型,已被证明是对总结和生成书面文本非常有希望的。但是,它们也可能是进行植根于心理学,行为科学和其他科学学科的研究的有趣工具。
印第安纳大学的研究人员最近使用LLMS来研究人类信念的复杂和细微差异,通过分析在线平台上的互联网用户之间的辩论。他们提出的方法论在《自然人类行为》中的一篇文章中概述了他们,使他们能够创建人类信仰的详细图表,揭示了暗示两极分化的模式(即具有相反观点的群体之间的极端分裂)和认知失调(即,在与我们自己冲突的信念时都会感到不适时感到不适)。
文章“我的基本研究目标是了解人们为什么使用数据和AI/NLP(自然语言处理)参与某些行为,”该论文的高级作者Jisun AN告诉Phys..org。
“在追求这一目标时,我意识到信念是人类行为的核心,因为它们会深刻影响我们的决策和行为。此外,我注意到语言嵌入空间有效地保留语义含义,并且最近的大型语言模型(LLM)包含大量有关语言,知识和人的信息。”
在发布第一个LLMS之后,逐渐确信这些基于机器的高级学习模型可用于研究人类的信念和行为。这是她最近的论文背后的主要灵感,该论文专门分析了人们在线表达的信念。
复杂关系 行为科学 信念 决策 Ingrid Fadelli 丽莎锁 罗伯特·埃根(Robert Egan) 捐赠 免费 更多信息: