简介 原则上,系统性问题不仅是由于虚假信息本身而产生的 - 这里的关键作用是利用人工智能 (AI) 传播虚假信息,它放大了个别有问题内容的规模,以至于它导致威胁和平与安全的系统性后果的出现或加剧。正如第一份简报《媒体自由背景下的国际虚假信息法和政策》所指出的,打击威胁和平、安全与合作的虚假信息和媒体传播的国际挑战在过去一个世纪中已经出现。有一套国际法来规范虚假信息的传播,特别是在其对国际关系造成损害的情况下。如今,随着社交媒体在告知公众方面的作用不断增强,媒体的影响力不断增强,寻求解决这一问题的愿望也日益增强 1 。人工智能在在线平台中发挥着核心作用,并且正在逐渐成为(如果尚未成为的话)塑造和定义互联网信息空间的关键工具。由于人工智能的发展和实施,网络平台能够直接影响观点及其表达形式,这在很大程度上也导致全球安全出现系统性和结构性威胁。主要问题是错误信息的鲁莽和广泛传播,并被人工智能放大。今天,我们看到了限制言论自由的新策略。这个问题的核心是信息饱和,因此需要对信息进行结构化和优先排序,而这已无法再通过手动方式完成。如果没有技术支持,就很难合理化、理解和有意义地解读大量的信息、大量的叙述和反叙述以及新闻周期的节奏。虽然审查制度的目的是压制言论自由,但新的策略却恰恰相反,互联网上充斥着大量的叙述,包括大量虚假、不准确和误导性的信息。这种大规模混乱武器 2 已被证明在制造混乱和对机构的不信任方面非常有效。
引言 可以说,系统性问题不仅仅源于虚假信息;人工智能 (AI) 的传播在将虚假信息从个体内容放大到产生和加剧危及和平与安全的系统性后果的规模方面发挥了关键作用。正如在第一篇关于媒体自由背景下的国际法和虚假信息政策的简短论文中所承认的那样,如何制止传播有损和平、安全与合作的虚假报道和信息的国际问题已经存在了一百年。有一套国际法专门处理虚假信息,特别是在其对国际关系造成危害的背景下。今天,随着媒体影响力的增长,寻求解决方案的愿望也随之增长,而社交媒体在向公众提供信息方面所发挥的作用则使这一愿望更加强烈。1 人工智能在网络平台中发挥着核心作用。它正在成为(如果不是已经成为的话)塑造和仲裁网络信息空间的重要工具。通过设计和部署人工智能,网络平台还直接影响人们的观点和表达,从规模上看,这也给综合安全带来了系统性和结构性挑战。一个特别的挑战是虚假信息的肆意和普遍传播,而人工智能则充当了它的放大器。这一挑战的核心是信息饱和,这导致需要对信息进行结构化和优先排序,而这已不再是手动操作所能实现的。如果没有技术帮助,内容的庞大数量、大量的叙述和反叙述以及新闻周期的节奏很难合理化、消化和有意义地解释。我们正在目睹一种对言论自由的新形式的攻击。虽然审查制度的重点是压制言论,但新的策略却恰恰相反,让各种言论充斥网络空间,包括大量虚假、不准确和误导性的信息。事实证明,这种大规模分散注意力的武器 2 在制造混乱和对机构的不信任方面非常有效。
人工智能 (AI) 系统在我们世界当前面临的虚假信息现象中发挥着至关重要的作用。此类系统不仅增加了创建逼真的 AI 生成的虚假内容的机会,而且本质上还促进了恶意利益相关者向目标受众大规模传播虚假信息,从而加剧了这一问题。这种情况涉及多个道德和人权问题,特别是关于人类尊严、自治、民主和和平的问题。作为回应,其他 AI 系统被开发出来以检测和控制在线虚假信息。此类系统也无法逃避道德和人权问题,特别是关于言论和信息自由的问题。欧盟 (EU) 最初从上升的共同监管开始,现在正朝着下降的共同监管这一现象的方向发展。特别是,《数字服务法案》提案规定了对大型在线平台的推荐系统和内容审核的透明度义务和外部审计。虽然委员会在该提案中专注于对被视为有问题的内容的监管,但欧洲议会和欧盟理事会呼吁加强对可信内容的访问。根据我们的研究,我们强调虚假信息问题主要是由基于广告收入的网络商业模式造成的,采用这种模式将大大减少这一问题。我们还观察到,虽然人工智能系统不适合审核在线虚假信息内容,甚至不适合检测此类内容,但它们可能更适合对抗对数字生态系统的操纵。
人工智能 (AI) 系统在我们世界当前面临的虚假信息现象中发挥着至关重要的作用。此类系统不仅增加了创建逼真的 AI 生成的虚假内容的机会,而且本质上还促进了恶意利益相关者向目标受众大规模传播虚假信息,从而加剧了这一问题。这种情况涉及多个道德和人权问题,特别是关于人类尊严、自治、民主和和平的问题。作为回应,其他 AI 系统被开发出来以检测和控制在线虚假信息。此类系统也无法逃避道德和人权问题,特别是关于言论和信息自由的问题。欧盟 (EU) 最初从上升的共同监管开始,现在正朝着下降的共同监管这一现象的方向发展。特别是,《数字服务法案》提案规定了对大型在线平台的推荐系统和内容审核的透明度义务和外部审计。虽然委员会在该提案中专注于对被视为有问题的内容的监管,但欧洲议会和欧盟理事会呼吁加强对可信内容的访问。根据我们的研究,我们强调虚假信息问题主要是由基于广告收入的网络商业模式造成的,采用这种模式将大大减少这一问题。我们还观察到,虽然人工智能系统不适合审核在线虚假信息内容,甚至不适合检测此类内容,但它们可能更适合对抗对数字生态系统的操纵。
Sundar Pichai首席执行官Google 1600圆形剧场Pkwy Mountain View,CA 94043 Mark Zuckerberg首席执行官Facebook 1 Hacker Way Menlo Park,CA 94025亲爱的Dorsey先生,Pichai先生,Wojcicki先生,Wojcicki女士和Zuckerberg先生,Zuckerberg先生,曾经签名的组织者,代表老年人,患者,无论是病人,病人,病人,病人,病人,医疗保健,,医疗保健。我们今天正在写信给您,以敦促您从平台上完全删除著名的反vaxxers及其组织页面的帐户,并立即开始发行纠正帖子,以抵消平台供稿中的错误信息和虚假信息。使用社交媒体报告,美国十分之一的成年人,等于1.46亿人。在Facebook,Instagram,YouTube和Twitter上的抗疫苗活动家的抗疫苗活动家吸引了超过5900万关注者,使这些数字渠道成为反vaxxers使用的最大的社交媒体平台,以共享有关疫苗和疫苗安全的虚假和不准确的信息。自共价19日大流行以来,人们就遭受了大量的健康错误信息和对批准的Covid-19-19疫苗的虚假信息。误解是创建和传播的错误信息,而不论造成伤害或欺骗的意图,但虚假信息是一种旨在故意欺骗性的错误信息。两种形式都引起了巨大的混乱和恐惧,并导致人们拒绝1900疫苗,拒绝掩盖,身体疏远以及其他科学证明的健康和安全措施。在2021年7月的美国外科医生的咨询,外科医生穆西(General Murthy),美国的医生穆西(Murthy)警告美国公众对健康误导的紧急威胁,包括:
由于联网汽车与其他联网汽车和联网基础设施具有外部连接性,因此很容易受到网络攻击,这些攻击可能会立即危及车辆本身以及其他联网汽车和道路基础设施的安全。虚假信息攻击就是这样一种网络攻击,外部攻击者向联网汽车注入不准确的信息,最终可能通过危及前方碰撞警告等安全关键应用而造成灾难性后果。此类攻击事件的发生和目标可能非常动态,使得实时和近实时检测具有挑战性。变化点模型可用于实时检测由虚假信息攻击引起的异常。在本文中,我们评估了三种基于变化点的统计模型:期望最大化、累积求和和贝叶斯在线变化点算法,用于检测 CV 数据中的网络攻击。此外,数据驱动的人工智能 (AI) 模型可用于检测数据集中已知和未知的潜在模式,具有检测 CV 数据中实时异常的潜力。我们使用了六种人工智能模型来检测虚假信息攻击,并将检测攻击的性能与我们开发的变更点模型进行了比较。我们的研究表明,与人工智能模型相比,变更点模型在实时虚假信息攻击检测方面表现更好。变更点模型具有无需训练的优势,可以成为联网汽车中检测虚假信息攻击的人工智能模型的可行且计算效率高的替代方案。
这些担忧促使像我们这样的人工智能研究人员与和平研究领域的学者建立了新的研究合作关系,和平研究是一个跨学科领域,致力于分析冲突与和平的原因。这两个领域的交叉是有意义的。例如,一个旨在标记在线发布的所有伪造图像、视频或音频片段的系统必须扫描发布的每一点内容——考虑到每分钟产生的 TB 级数据,这绝非易事。相反,我们正在开发系统,其具体目标是帮助防止在特定地点和特定时间因恶意虚假信息而导致的暴力事件——这些地方很可能爆发暴力事件。通过借鉴和平研究的经验教训,人工智能开发人员可以将预警系统定位到最有可能出现虚假信息导致选举操纵或暴力事件的地方。