报告特别指出了人工智能 FM 生成的虚假评论、网络钓鱼、隐藏广告以及所谓的“幻觉” 33 和“深度伪造”的错误信息可能对消费者造成的危害。34 它还标记了消费者可能不了解 FM 的工作原理以及/或者内容是否由人工智能工具生成的担忧。报告讨论了可用于解决可能对消费者造成的危害的措施,例如测试、减轻幻觉的技术措施(例如通过“接地”)、披露要求(即,向用户说明他们何时与人工智能系统交互以及/或该系统的局限性)并采用标准或基准来衡量 FM 生成的输出的质量和/或可靠性。
Christiane 和 Susan 将概述 AI 和版权的法律状况。现有的版权法适用于 AI 特定问题 - 从带有训练数据和提示的输入级别,到神经网络的所谓“黑匣子”,再到带有 AI“创作”的输出级别 - 并且被证明非常灵活,但仍有许多问题有待解决。此外,新的欧盟 AI 法案在当前法律框架中发挥着重要作用。免费生成的 AI 应用程序的突然兴起导致最后一刻纳入了与版权和娱乐业相关的条款。本次会议将介绍有关 AI 训练数据、“合成”内容标签和深度伪造披露的这些规定。为了全面了解情况,将讨论娱乐合同中与相关 AI 用例相关的关键法律考虑因素。
• 偏见和歧视的延续:人工智能系统主要基于数据,其优劣取决于其所使用的数据。如果数据重现了系统性歧视,那么技术也会如此,即使这是无意的。 • 权力游戏:如果使用时缺乏充分的制衡,人工智能可能会被用作政治压迫、挑衅、迫害和操纵的工具,包括通过监视、深度伪造和其他虚假信息以及政治议程设置。 • 监管迎头赶上:在许多情况下,安全和司法部门使用技术是在法律框架充分制定之前发生的。这可能会损害公民权利、消费者权利和人权。制定新的规范、政策和法律很困难,因为技术很复杂,而且变化很快。
另一方面,威胁行为者也在越来越多地利用这些新工具的力量,尤其是设计和改进更难检测的恶意软件以及增强其网络钓鱼技术。具体来说,生成式人工智能将使欺骗行为更难被发现,因为它允许威胁行为者创建更加个性化的通信,并利用音频和视频形式的深度伪造。举一个例子,威胁行为者现在可以简单地识别公司首席执行官的现有在线视频或音频文件,利用生成式人工智能应用程序创建克隆首席执行官声音的音频消息,然后使用它对毫无防备的公司员工发起社会工程攻击。
网络虚假信息已成为学术界研究的一大焦点,也是记者和广大公众关注的一大原因。尽管多种形式的虚假信息已经在网上盛行,但一些评论员担心,新技术——尤其是用于生成深度伪造视频的技术——将加剧虚假信息问题 (Fallis, 2021 ; Foer, 2018 ; Rini, 2020 ; Warzel, 2018 )。人们很自然地会认为,既然用于欺骗的新技术是问题,那么用于检测的新技术就是解决方案。因此,人们已经投入了大量的心思和投资来研究用于检测深度伪造和其他形式的虚假信息的技术。在本文中,我认为,解决深度伪造所带来问题的技术解决方案非常有限。在简要概述了深度伪造如何威胁
数字化转型具有巨大的潜力,可以改善我们的生活质量。它使我们能够快速、跨境地沟通,让我们触手可及地获得基于证据的信息和关键服务,并让最好的公共对话成倍增加。尽管数字技术有诸多好处,但这种规模的数字技术所带来的威胁也是不可避免的。深度造假和虚假信息的非凡进步让那些追求恶意目标的人更加得心应手。外国影响力运动雇佣数字营销公司操纵菲律宾和委内瑞拉的选举,破坏肯尼亚的司法改革,并规避印度的政治广告法。3 所有这些活动都利用了虚假账户、虚假宣传和算法放大,以及付费广告和内容提升。
2024 年的《培育原创、促进艺术和保障娱乐安全(禁止假冒)法案》将要求个人或公司对制作、托管或共享个人在视听作品、图像或录音中表演的数字复制品承担损害赔偿责任,而该个人从未实际出现或以其他方式获得批准——包括由生成人工智能 (AI) 创建的数字复制品。托管未经授权复制品的在线服务必须在收到权利人的通知后删除该复制品。为公认的《第一修正案》保护提供了例外,例如纪录片和传记作品,或出于评论、批评或模仿等目的。该法案还将在很大程度上取代涉及数字复制品的州法律,以创建可行的国家标准。发起人:参议员 Coons (D-DE) 最新行动:7/31/24 - 提交并提交给参议院 JUD 委员会。
像Instagram和Facebook这样的社交媒体对我们的数字生活产生了很大的影响,但它们也受到传播有害内容的虚假概况的困扰。解决此问题的当前方法不是很准确。我们的数字生活受到Instagram和Facebook等社交网站的极大影响,但它们也受到共享破坏性内容的虚假角色困扰。当前解决此问题的方法不是特别有效。为了更好地识别欺诈性概况,我们采用了监督的学习,尤其是极端的梯度提升(XG Boost)。为了帮助识别和突出显示这些假货,我们还制作了一个网页。通过这种方式处理社交媒体上的假冒资料问题是更容易的。在当今的数字时代,社交媒体平台和在线团体上虚假概况的普遍性越来越大。
随着操纵媒体的复杂性下降,利用虚假信息的风险急剧增加。以前,使用专业软件制作复杂的虚假信息可能需要专业人员几天到几周的时间,但现在,这些虚假信息可以在极短的时间内制作出来,即使技术专长有限甚至没有。这在很大程度上是由于计算能力和深度学习的进步,这不仅使制作虚假多媒体变得更容易,而且批量生产成本更低。此外,市场上现在充斥着免费、易于获取的工具(一些由深度学习算法提供支持),使多媒体的创建或操纵基本上是即插即用的。因此,这些公开可用的技术价值增加,并成为各种对手广泛使用的工具,使欺诈和虚假信息能够利用目标个人和组织。这些工具的民主化已成为 2023 年最大的风险之一。[7]
随着基于大型语言模型 (LLM) 的应用程序的出现,AI 再次成为一个备受关注的话题。这些新模型的局限性尚待探索,目前还不清楚当前的 AI 趋势将有多大的颠覆性。毫无疑问,人们担心 AI 对网络安全的影响,因为它已经改变了攻击者和防御者的网络线程格局。我们调查了由于新技术的出现,攻击者的攻击和操作如何发生变化,重点关注 AI 的攻击性使用。虽然生成式 AI 已经提高了社会工程攻击的质量和数量(例如,深度伪造、大规模个性化网络钓鱼),但我们将讨论重点放在技术攻击媒介上,而不是人为因素上。然而,应该提到的是,社会工程攻击是最普遍的攻击之一,AI 对这种特定类型攻击的影响非常明显。