它还可能对民主构成威胁;人工智能已经被指责根据一个人以前的在线行为创建在线回音室,只显示一个人喜欢的内容,而不是创造一个多元化、平等可及和包容性的公共辩论环境。它甚至可以用于制作极其逼真的假视频、音频和图像,即所谓的深度伪造,这可能会带来财务风险、损害声誉并挑战决策。所有这些都可能导致公共领域的分离和两极分化,并操纵选举。
第一个令人难忘的提及是 Deepfake 技术,它震撼了互联网和大众。Deepfake 是一种震撼互联网并引起广泛关注的技术,因为它能够创建高度逼真的假图像、视频和录音 [3]。它使用人工智能来操纵媒体并创建看似真实的内容,即使它完全是捏造的。人们开始认识和了解人工智能,它可以完成以前需要很长时间才能完成的复杂操作。Deepfake 并不是第一个使用人工智能制作的技术,但它引起了人们的关注,并激励其他开发人员将他们的想法推向聚光灯下。在接下来的几年里,许多工具出现了,每个新工具的开发时间都比旧工具短,从而增加了它们的出现频率。起初,这些工具受到热烈欢迎和使用。然而,随着时间的推移,人们注意到一种奇怪的趋势,因为它们开始取代那些经过多年学习以磨练技能的员工 [4]。
随着技术的进步,可以以非常无缝的方式为伪造媒体创建人脸图像,利用视频的大规模可访问性。这些假面孔可能用于对目标对象进行冒充攻击。ASCII 文本文件计算机代码和各种商业应用程序的可用性提供了通过几种方式获取选定目标对象的伪造视频的机会。在本文中,我们倾向于通过一系列研究来判断检测方法的普遍性,以对检测准确性进行基准测试。为此,我们从非复制网站收集了一个包含 50,000 多张图像的新数据库,这些图像来自多种数字生成的伪造来源,包括计算机图形图像生成和许多基于篡改的方法。此外,我们还使用了智能手机上常见的应用程序修改的视频。使用基于纹理的手工检测和使用 CNN 方法进行了广泛的实验,以确定检测方法的适用性。通过这种方式,我们可以通过 CNN 方法检测假脸。检测一张看起来很逼真的假脸。我们获取大量图像数据集并对其进行规范化。因此,我们从互联网上收集了大量名人照片,并希望从这些照片中检测出假脸。这样就可以从人脸中检测出假脸。
人工智能生成的虚假信息与传统的人类生成的虚假信息有何不同?在这里,我们重点介绍了四个潜在的差异因素:规模、速度、易用性和个性化。首先,人工智能使大规模生产虚假信息活动的内容变得更加容易,这些内容可以转化为更多的虚假故事、同一故事的多种变体、不同语言的呈现、自动对话等等。其次,与手动内容生成相比,人工智能技术可以在几秒钟内生成虚假信息。前两个因素——规模和速度——对事实核查人员来说是一个挑战,因为他们将被虚假信息淹没,但仍需要大量时间来揭穿真相。第三,随着人工智能工具更广泛地渗透到社会中,它们将降低开展影响力行动的门槛。人们可以使用人工智能工具创建逼真的假图像和视频,而无需专业知识或耗时的手动编辑。这可能会使网络喷子农场变得民主化。第四,人工智能技术使得针对特定受众(或个人)及其偏好或信仰发起个性化的虚假信息活动成为可能,而无需深入了解目标的语言或文化。例如,个性化的虚假信息可能针对不同年龄、政治意识形态、宗教信仰和性格类型(例如外向或内向)的人,这可能会增加虚假信息活动的说服力。那些已经被社会边缘化或媒体素养较低的人可能特别容易受到攻击。
深度伪造技术的泛滥使人们能够制作出高度逼真的假图像,对社会构成了越来越大的威胁。使用人工智能工具创建 DF 是一项简单的任务。检测和缓解深度伪造内容已成为媒体、安全和隐私等各个领域的一项关键挑战。为了应对这一挑战,我们提出了一种使用最先进的深度学习和机器学习技术检测深度伪造图像和文本的新方法。我们的方法利用深度神经网络(包括卷积神经网络 (CNN))的强大功能来分析区分真实内容和深度伪造的细微模式和特征。我们使用真实和深度伪造图像的多样化数据集来训练和微调我们的模型,确保稳健性和适应性。所提出的系统结合使用图像取证技术、语言分析和行为建模来识别图像中的不一致和异常。通过结合多模态特征,我们的方法在区分真实内容和深度伪造内容方面实现了高水平的准确性。深度伪造技术的激增引发了人们对各个领域数字内容真实性的极大担忧。本研究侧重于开发一个全面的框架,以有效识别和缓解深度伪造图像处理的泛滥。通过利用机器和深度学习方法的进步,本研究提出了一种强大的方法来应对复杂的伪造媒体带来的挑战。此外,我们提出了一种可扩展且高效的实现,允许实时或批处理,使其适用于各种应用。