项目概述:错误信息无处不在。它操纵了公民的情感和情感,可以说服人们错误地相信一个话题,可能侵蚀信任,从而对社会造成伤害。利用这样一个事实,即假装道德愤怒可能会产生许多重视,穆尔蒙格可以确保在很短的时间内广泛扩散了适当的措辞虚假信息。但是,在社交媒体上传播的大量信息中确定谣言和虚假新闻是极具挑战性的,法规措施的应用也可以减少其扩散。大型语言模型(LLM)具有通过大量文本培训获得的复杂语言理解能力。然而,与许多AI技术相同,LLM可以被视为既是祝福又是诅咒,尤其是在错误信息方面。LLM的智能特征可以被恶意利用,以迅速产生似乎令人信服的虚假信息。此外,由于在包括一定比例的错误信息的网络文本上训练了LLMS,因此在诸如自动汇总或问题回答之类的任务期间,它们可能会无意间产生错误的信息。llms可能会大大加剧错误信息问题,从而使虚假信息更容易渗透社会。因此,迫切需要开发强大的自动化方法,以区分假货与真实信息。增强对这些特征的理解是开发准确的自动化方法的关键方面。幸运的是,LLMS的高级功能意味着它们也可以通过自动检测错误信息来为与谣言和虚假新闻的传播做出积极贡献。我们正在研究如何最好地利用LLM,以根据常规机器学习和深度学习为基础进行自动检测和分析错误信息的分析。错误信息检测是一个因素问题,不仅依赖于确定文本是否是事实是事实的,而且还依赖于确定有关社交媒体帖子的文本内容和结构的各种功能,这些功能可以交互以表示信息是假的。与社会科学学者合作,致力于错误信息,虚假信息,阴谋理论,论证和信任,我们分析了围绕“伟大的替代”深层国家和全球精英阴谋的社交媒体帖子的集合,以确定语义,词典,词典和风格特征,这些特征具有错误的信息。这些特征包括情感,情感和立场,以及结构和话语级别的信息,例如对话行为和时间动态。我们已经评估了特征的不同组合之间的相互作用以及基于情感特征的指导调整如何使用主流模型(例如Llama2,Chatgpt和Vicuna)改善了对错误信息和阴谋的认识。
主要关键词