生成式人工智能技术的快速发展(包括人工智能生成的音频和视频材料中深度伪造的潜力 15 )需要采取全面的方法来确保负责任和合乎道德的使用。更严格的规定对于减少虚假信息的传播至关重要,开发人员应该对低估恶意行为者滥用其产品的可能性负责。必须促进透明度,制定和执行技术保障措施、强有力的安全标准和明确的沟通政策。这些措施必须通过律师、
尝试。gpt-4(通过副驾驶员)最初拒绝造成健康虚假信息,即使有越狱尝试;但这不是12周的情况。gpt-4(通过chatgpt),Palm 2/Gemini Pro(通过Bard)和Llama 2(通过HuggingChat)始终生成包含健康虚假信息的博客,在两个评估时间点下,只有5%(150)的拒绝率为5%(150)。生成的博客纳入了引人注意的标题,真实的外观(假或虚构的)参考文献以及患者和临床医生的捏造证明,并针对不同的人群组。尽管所评估的每个LLM都有可以报告观察到的关注产出的机制,但是在报告了观察到的漏洞时,开发人员没有响应。该研究的一个局限性是直接测试了LLM聊天机器人/助手界面。
生成式人工智能技术的快速发展(包括人工智能生成的音频和视频材料中深度伪造的潜力 15 )需要采取全面的方法来确保负责任和合乎道德的使用。更严格的规定对于减少虚假信息的传播至关重要,开发人员应该对低估恶意行为者滥用其产品的可能性负责。必须促进透明度,制定和执行技术保障措施、强有力的安全标准和明确的沟通政策。这些措施必须通过律师、
框2.1。澳大利亚 - 关于虚假信息和错误信息的自愿实践守则33框2.2。《美国通信典范法》第230条(1996)36 Box 2.3的相关语言。概述澳大利亚的通信立法修正案(打击错误信息和虚假信息)第38章框2.4。DSA第40条 - 数据访问和审查39框2.5。ODA旨在加强媒体和信息环境的计划47框2.6。定义外国干扰和外国信息操纵和干扰(FIMI)52框2.7。《外国代理商注册法》(FARA)在反对虚假信息的斗争55方框2.8中的应用。通过特殊工作队57框3.1确保选举期间的信息完整性。芬兰的媒体素养76 Box 3.2。“ Clemi”:法国促进和协调媒体和信息素养活动的中心77 Box 3.3。爱沙尼亚的“媒体和操纵”课程在高中课程78 Box 3.4中。荷兰媒体素养网络79框3.5。爱尔兰的“ Be Media Smart”媒体素养活动80 Box 3.6。英国为帮助弱势群体发现虚假信息并提高在线安全81框3.7的努力。安全与情报评估 - 立陶宛,拉脱维亚,芬兰和瑞典82 Box 3.8的案例研究。政府!预埋游戏83 Box 3.9。媒体素养评估工具85框3.10。Harmony Square和Cat Park媒体和信息素养游戏86 Box 3.11。爱尔兰的媒体委员会未来94框3.14。OECD公共交流对错误和虚假信息的良好实践原则88 Box 3.12。立陶宛政府与debunk.eu和Meta合作,《节制政策90框3.13》。一项国际合作,用行为洞察力95框3.15解决错误信息。加拿大的数字公民计划96框3.16。国际信息与民主天文台98框4.1。荷兰在政府范围内解决虚假信息的战略110 Box 4.2。爱尔兰的国家反对策略工作组111框4.3。国家信息空间安全协调小组 - 拉脱维亚114框4.4。国家危机管理中心 - 立陶宛115框4.5。为外国数字干扰的警惕和保护服务 - 法国116框4.6。瑞典心理防御机构 - 瑞典117 Box 4.7。全球订婚中心 - 美国117
在过去三年中,生成式人工智能技术(例如 DALL-E、ChatGPT)突然从研究论文和公司实验室跃升至包括学童在内的数亿人使用的在线服务。根据皮尤研究中心 (Pew Research) 的数据,仅在美国,2023 年 7 月就有 18% 的成年人使用过 ChatGPT(Park & Gelles-Watnick, 2023)。随着生成式人工智能的流畅性和可负担性逐月提高,其广泛滥用也在不断增加,用于创建价格合理、极具说服力的大规模虚假宣传活动。人工智能生成的虚假信息具有高度破坏性的例子比比皆是,包括利润丰厚的 Facebook 广告 1,试图通过摩尔多瓦亲西方总统的深度伪造视频来影响选民(Gilbert, 2024)。YouTube 还被发现托管带有政治深度伪造视频的广告,这些视频使用了声音模仿(RTL Lëtzebuerg, 2023)。除了视频之外,人工智能生成的图像还被用来传播有关加沙的虚假信息(法国,2023 年;Totth,2023 年)并传播分裂的反移民言论(The Journal,2023 年)。事实核查人员还报告了音频深度伪造,到目前为止,这些音频伪造主要集中在政客的虚假对话和言论上(Demagog,2023 年;Dobreva,2023 年;Bossev,2023 年)。俄罗斯的虚假宣传活动还将生成式人工智能武器化(例如,乌克兰总统呼吁投降的深度伪造视频(Kinsella,2023 年)、人工智能生成的乌克兰总统与妻子的对话(Demagog,2023 年)。目标国家遍及整个欧盟(及其他地区),包括保加利亚(Bossev,2023 年;BNT,2023 年)等高度易受影响的国家,这些国家的公民媒体素养和批判性思维能力较低,并且缺乏对人工智能生成的复杂图像、视频、音频和文本存在的认识。旨在打击帖子和广告中的虚假信息的平台行动迄今为止也未能检测和删除有害的人工智能生成内容。所有主要的社交媒体平台和聊天应用程序都受到了影响。为简洁起见,我们这里仅列举了 Facebook 的一些示例(广告(Gilbert,2024 年)、群组(The Journal,2023 年)、页面(Bossev,2023 年) ))、YouTube (RTL 卢森堡,2023 年)、X (法国,2023 年;Totth,2023 年)、Instagram (法国,2023 年;Totth,2023 年)、TikTok (法新社,美国和法新社德国,2023 年;Marinov,2023 年) 和 Telegram (Starcevic,2023 年;Marinov,2023 年)。人工智能生成的内容(例如,一条声称保加利亚选票被操纵的虚假音频(Dobreva,2023 年))也通过电子邮件发送给媒体和记者,意图欺骗可靠的媒体发布虚假内容。此外,生成式人工智能不仅被用于以低成本创建极具欺骗性的虚假宣传活动,而且其存在和熟练程度还被行为者武器化,他们传播虚假声明,声称真实的图像、视频、政府和主流媒体的音频内容实际上是假的。最近的一个例子是针对特斯拉的一起诉讼案,该公司律师声称伊隆·马斯克的一段视频是深度伪造的(《卫报》和路透社,2023 年)。另一个例子来自保加利亚,试图抹黑政府和“新自由主义”主流媒体的坏人通过
担任公职人员已经感受到这些新技术的影响,因为他们越来越频繁地成为机器人、深度伪造和其他新兴工具的目标,而这些工具反过来又侵蚀了知情讨论,并日益模糊了应该和不应该被信任的客观现实之间的界限。本手册全面概述了虚假信息,包括其不同形式和传播虚假信息的各种技巧。它还介绍了人工智能和合成媒体的基础知识,包括它们在选举周期内外的潜在应用和对民主的影响。本手册还提供了打击虚假信息的有效策略,并指导议员如何与其他利益相关者(包括民间社会、媒体和科技公司)合作,制定全面有效的政策和监管/立法框架来应对虚假信息的挑战,以及如何在更个人的层面上采取措施保护自己的在线形象和沟通渠道。
† 我们与 ChatGPT(2023 年 3 月 23 日版本)合作撰写了这篇文章。我们这样做的部分原因是为了研究学者和人工智能如何合作创作学术论文。虽然该系统对文本做出了重大贡献,但我们根据主要科学出版商 Springer Nature 的建议将其从作者名单中删除。请参阅 ChatGPT 等工具威胁透明科学;以下是我们使用它们的基本规则,613 N ATURE 612(2023 年),https://www.nature.com/articles/d41586-023-00191-1 [https://perma.cc/5VHC-ST6N](“没有 LLM 工具会被接受为研究论文的署名作者。这是因为任何作者归属都伴随着对工作的责任,而人工智能工具不能承担这样的责任。”)。撰写这篇文章在一定程度上是对一种新形式学术创作的实验。因此,我们上述描述的过程可能无意中遗漏了同事发表的一些作品。我们恳请他们原谅我们实验性写作方法造成的任何遗漏。尽管如此,我们还是尝试在实验范围内尽可能地纳入相关参考资料。实现此目标的一种策略是将我们文章的早期草稿发布在 SSRN 上供任何人审阅。
抽象的政治虚假信息通常会在关键事件(例如选举)中加剧,而社交紧张局势加剧则强调了及时可靠的信息的需求。从历史上看,一种解决方案是通过删除内容,降低其可见性或向用户标记风险来更有效的内容审核。尽管在全球内容节制政策的透明度上有所提高,但这种情况的发生过程通常仍然被误解。此外,这种机制反过来又在社交媒体用户之间引起了有关社交媒体公司政策以及如何规避这些辩论的激烈辩论。至关重要的是,即使对内容/可见性审核的这种白话理解通常是基于毫无根据的谣言,这些信念仍然可能对社交媒体平台的公正性,尤其是在诸如选举之类的批判性事件中的公正性。借鉴了极端言语理论(Pohjonen and Udupa 2017),本文认为,这些用户的观点和信念对内容审核政策形成了一种新型的“算法民俗”,越来越多地告知政治信息的合法性和在社交媒体上共享的政治信息的合法性。通过肯尼亚,埃塞俄比亚和印度的例子,本文提出了三个初步的内容节制民间传说的元叙事,以帮助更好地理解AI造成的虚假信息在准备印度尼西亚欧洲的作用。关键字:虚假信息,内容审核,算法民俗,极端语音,比较研究算法的民间传说被广泛定义为“关于适度算法的信念和叙事,这些算法是非正式地传递的,并且可以与官方账户保持紧张状态(Savolainen 2022:1092)。”反过来,这些信念在关键事件中可能会发挥超大的作用,例如当选举中需要提高及时和公正信息的需求,也就是说,用户如何将社交媒体平台作为公正的政治信息中的作用显着影响如何更广泛地理解民主进程的合法性。
1当CoimisiúnNaMeán于2024年2月成为爱尔兰的数字服务协调员时,它将与欧洲委员会具有共同的能力,以实施有关非常大的在线平台的虚假信息