本文介绍了COVID-19的多语言数据集,包括来自三个中等收入国家的带注释的推文:巴西,印度尼西亚和尼日利亚。专业精心策划的数据集包括5,952条推文的注释,评估了它们与Covid-19疫苗的相关性,存在错误信息以及错误信息的主题。为了解决域规格,低资源设置和数据不平衡提出的挑战,我们采用了两种方法,用于开发Covid-19疫苗错误信息传播模型:使用大型语言模型使用域特异性的预训练和文本增强。与基线模型相比,我们最佳的错误信息检测模式显示了宏F1得分的2.7到15.9个百分点的改进。此外,我们在2020年至2022年之间的1900万个未标记的推文的大规模研究中应用了错误信息检测模型,展示了我们的数据集和模型在多个国家和语言中检测和分析疫苗误解的实际应用。我们的分析表明,新的Covid-19案件数量的百分比变化与巴西和印度尼西亚的交错方式与Covid-19疫苗的错误信息率呈正相关,并且在这三个国家之间存在明显的正相关。
本文研究了主流社交媒体对疫苗错误信息和虚假信息的主要特征和缺点。第I部分和II部分将疫苗信息信息的最新扩展和在线环境中的虚假信息相关。第三部分提供了对主流社交媒体采用的对疫苗错误信息的持续反应的调查和分类法。它进一步指出了当前的自我调节模式的局限性,并通过在Facebook上提出了一个简短的案例研究来说明这些局限性,这是最大的疫苗特定媒体媒体媒体工具 - 特定于疫苗的误解,目前估计有大约一半与疫苗错误信息有关的社交媒体帐户。第四部分研究了提高疫苗错误信息自我调节模式的严格性的潜在方法,以及创建合作监控和相互援助网络,致力于解决疫苗误导领域的特定问题。
项目概述:错误信息无处不在。它操纵了公民的情感和情感,可以说服人们错误地相信一个话题,可能侵蚀信任,从而对社会造成伤害。利用这样一个事实,即假装道德愤怒可能会产生许多重视,穆尔蒙格可以确保在很短的时间内广泛扩散了适当的措辞虚假信息。但是,在社交媒体上传播的大量信息中确定谣言和虚假新闻是极具挑战性的,法规措施的应用也可以减少其扩散。大型语言模型(LLM)具有通过大量文本培训获得的复杂语言理解能力。然而,与许多AI技术相同,LLM可以被视为既是祝福又是诅咒,尤其是在错误信息方面。LLM的智能特征可以被恶意利用,以迅速产生似乎令人信服的虚假信息。此外,由于在包括一定比例的错误信息的网络文本上训练了LLMS,因此在诸如自动汇总或问题回答之类的任务期间,它们可能会无意间产生错误的信息。llms可能会大大加剧错误信息问题,从而使虚假信息更容易渗透社会。因此,迫切需要开发强大的自动化方法,以区分假货与真实信息。增强对这些特征的理解是开发准确的自动化方法的关键方面。幸运的是,LLMS的高级功能意味着它们也可以通过自动检测错误信息来为与谣言和虚假新闻的传播做出积极贡献。我们正在研究如何最好地利用LLM,以根据常规机器学习和深度学习为基础进行自动检测和分析错误信息的分析。错误信息检测是一个因素问题,不仅依赖于确定文本是否是事实是事实的,而且还依赖于确定有关社交媒体帖子的文本内容和结构的各种功能,这些功能可以交互以表示信息是假的。与社会科学学者合作,致力于错误信息,虚假信息,阴谋理论,论证和信任,我们分析了围绕“伟大的替代”深层国家和全球精英阴谋的社交媒体帖子的集合,以确定语义,词典,词典和风格特征,这些特征具有错误的信息。这些特征包括情感,情感和立场,以及结构和话语级别的信息,例如对话行为和时间动态。我们已经评估了特征的不同组合之间的相互作用以及基于情感特征的指导调整如何使用主流模型(例如Llama2,Chatgpt和Vicuna)改善了对错误信息和阴谋的认识。
对气候变化的错误信息会造成许多负面影响,因此需要构成反应。心理学研究提供了各种策略,以减少气候错误信息的影响,例如事实是现实的事实结构。但是,实际上在大规模上实施纠正措施是一个挑战。自动检测和纠正错误信息解决了错误信息问题。这项研究记录了接受气候神话的大型语言模型的发展,并通过将逆势索赔分类和谬误检测纳入LLM提示框架中,从而遵循事实发生的事实差异(“真相三明治”)结构。我们将开放式(Mix-Tral,Palm2)和专有(GPT-4)LLM与促使复杂性变化的策略相结合。实验表明,如果结合结构提示,则揭示了GPT-4和混音的有希望的性能。我们确定了揭穿生成和人类评估的具体挑战,并为未来的工作绘制了途径。我们租用了一个高质量真相 - 桑德威奇(Sandwich)揭穿,源代码和揭穿系统演示的数据集。1
为各种声音提供平台丰富了我们对社会和周围世界的知识和理解,但是正如我们在下面讨论的那样(另请参见趋势3),拥有创建和共享知识的开放平台并不总是特权边缘化的声音,并且可以并且拥有并具有特权现有知识和信息能力结构的意外后果。我们在COVID-19的不规则,错误信息,虚假信息和恶意(共同称为错误信息)的背景下介绍了这一趋势,这些趋势改变了我们使用的信息和知识实践来确定什么是真实的。
对气候变化的错误信息会造成许多负面影响,因此需要构成反应。心理学研究提供了各种策略,以减少气候错误信息的影响,例如事实是现实的事实结构。但是,实际上在大规模上实施纠正措施是一个挑战。自动检测和纠正错误信息解决了错误信息问题。这项研究记录了接受气候神话的大型语言模型的发展,并通过将逆势索赔分类和谬误检测纳入LLM提示框架中,从而遵循事实发生的事实差异(“真相三明治”)结构。我们将开放式(Mix-Tral,Palm2)和专有(GPT-4)LLM与促使复杂性变化的策略相结合。实验表明,如果结合结构提示,则揭示了GPT-4和混音的有希望的性能。我们确定了揭穿生成和人类评估的具体挑战,并为未来的工作绘制了途径。我们租用了一个高质量真相 - 桑德威奇(Sandwich)揭穿,源代码和揭穿系统演示的数据集。1
误导谣言,错误信息和虚假信息会使健康事件更加复杂,减少对公共卫生努力的信任,并带来负面影响。解决健康错误信息的实用剧本提供了有关公共卫生和医疗专业人员可以为成功做好准备的方式的指导,决定何时需要采取行动解决错误信息,选择哪些行动和方法可能对他们的受众和信息需求有用,并评估他们的努力如何工作。它还提供了工具,模板和示例来帮助这些努力。尽管没有“银弹”来解决公共卫生错误信息的问题,但该剧本有助于为像您自己这样的健康传播者奠定基础,以解决问题。
