尚不清楚大型语言模型(LLM)是否在语言使用中发展了类似人类的特征。我们将Chatgpt和Vicuna进行了12个预先注册的心理语言实验,从声音到对话。Chatgpt和Vicuna分别在12个实验中分别复制了人类的语言使用模式。模型将不熟悉的单词与不同的含义相关联,取决于其形式,继续访问最近遇到模棱两可的单词的含义,重复使用的最近的句子结构,将因果关系归因于动词语义的函数,并访问了不同的含义,并根据对话者的身份访问了不同的含义并检索了不同的单词。此外,chatgpt而不是维库纳(Vicuna),非文字解释的令人难以置信的句子可能因噪音而损坏,提出合理的推论以及句子中被忽视的语义谬误。最后,与人类不同,这两种模型都不喜欢使用较短的单词来传达信息较少的内容,也没有使用上下文来解决句法歧义。我们讨论了这些融合和差异如何由变压器体系结构产生。总的来说,这些实验表明,在人类语言处理的许多方面,LLM(和Vicuna等LLM)在人类语言处理的许多方面都像人类一样。
用户可以为关键信息添加书签 - 在短短两周内,它引起了开发人员和研究人员的关注。与其他型号相比,Vicuna较小的碳足迹和较低的内存要求使其成为可持续内容生成的有吸引力的选择。在这两种创新的模型上,蒂莫西·鲍德温(Timothy Baldwin),代理教务长,学术事务副教务长,MBZUAI的NLP教授说:“为了使LLMS民主化,MBZUAI大胆地扩大了语言可及性的范围,从而促进了新时代的新时代,从而通过创造开放的新时代的途径来促进新时代。JAI的发展是LLM包含阿拉伯语的人的一个里程碑,以及创新的Vicuna模型,以其负担能力而闻名,从而为无数公司启动其语言旅程的道路,在这个方向上作为全球信徒们共鸣。”
项目概述:错误信息无处不在。它操纵了公民的情感和情感,可以说服人们错误地相信一个话题,可能侵蚀信任,从而对社会造成伤害。利用这样一个事实,即假装道德愤怒可能会产生许多重视,穆尔蒙格可以确保在很短的时间内广泛扩散了适当的措辞虚假信息。但是,在社交媒体上传播的大量信息中确定谣言和虚假新闻是极具挑战性的,法规措施的应用也可以减少其扩散。大型语言模型(LLM)具有通过大量文本培训获得的复杂语言理解能力。然而,与许多AI技术相同,LLM可以被视为既是祝福又是诅咒,尤其是在错误信息方面。LLM的智能特征可以被恶意利用,以迅速产生似乎令人信服的虚假信息。此外,由于在包括一定比例的错误信息的网络文本上训练了LLMS,因此在诸如自动汇总或问题回答之类的任务期间,它们可能会无意间产生错误的信息。llms可能会大大加剧错误信息问题,从而使虚假信息更容易渗透社会。因此,迫切需要开发强大的自动化方法,以区分假货与真实信息。增强对这些特征的理解是开发准确的自动化方法的关键方面。幸运的是,LLMS的高级功能意味着它们也可以通过自动检测错误信息来为与谣言和虚假新闻的传播做出积极贡献。我们正在研究如何最好地利用LLM,以根据常规机器学习和深度学习为基础进行自动检测和分析错误信息的分析。错误信息检测是一个因素问题,不仅依赖于确定文本是否是事实是事实的,而且还依赖于确定有关社交媒体帖子的文本内容和结构的各种功能,这些功能可以交互以表示信息是假的。与社会科学学者合作,致力于错误信息,虚假信息,阴谋理论,论证和信任,我们分析了围绕“伟大的替代”深层国家和全球精英阴谋的社交媒体帖子的集合,以确定语义,词典,词典和风格特征,这些特征具有错误的信息。这些特征包括情感,情感和立场,以及结构和话语级别的信息,例如对话行为和时间动态。我们已经评估了特征的不同组合之间的相互作用以及基于情感特征的指导调整如何使用主流模型(例如Llama2,Chatgpt和Vicuna)改善了对错误信息和阴谋的认识。