可以通过故意用AI代的产出来将儿童置于风险中。AI生成的语音和图像输出的创建和部署可以促进一系列危害。恶意演员可以使用图像生成器来消除照片并更改性别,以创建假子镜。反过来,这些可以用于在线接近或与儿童联系,以进行修饰,性骚扰或七分。成人和儿童可以使用语音和视频生成技术来创建Deepfake角色,并将其作为潜在受害者的潜在朋友或浪漫伴侣(类似于成人浪漫骗局中的实时深层技术)。8个孩子们说或做他们在现实生活中没有做过的事情,或者他们的外表已经
今年的报告还首次强调了威胁行为者使用 Gen AI 来增加成员目前面临的攻击的数量、可信度或严重性。报告敦促公司考虑对员工进行培训,让他们了解对抗性使用生成式人工智能所带来的更高的欺诈和网络风险,以及他们的网络安全计划是否考虑使用技术工具、数据来源和流程来识别此类风险。报告观察到,威胁行为者已经使用 Gen AI 生成可能绕过身份验证的虚假内容(例如深度伪造),创建变形以逃避检测的多态恶意软件,以及开发没有复杂技术能力的恶意工具。它还列出了威胁行为者利用 Gen AI 来放大现有网络安全威胁的方式(例如帐户接管、BEC、勒索软件
响应深层摄影所带来的不断升级的威胁,以前的研究工作重点是发明利用CNN体系结构的检测模型。尽管结果有希望,但其中许多模型在面对现实世界的情况时表现出可重现性和实用性的局限性。为了应对这些挑战,这项研究努力开发一个更概括的检测框架,能够辨别各种数据集的深击内容。通过在精选的Wilddeepfake数据集中训练简单但有效的ML和DL模型,该研究评估了检测来自DeepFake对应物的真实媒体的可行性。通过对模型性能的比较分析和评估,本研究旨在为可靠的深泡检测方法的发展做出贡献。这项研究中使用的模型表明,在对DeepFake介质进行分类方面有明显的准确性。
生成式人工智能 (AI) 的出现为各个领域带来了变革潜力,使创建复杂逼真的数字内容成为可能。然而,这一技术飞跃引发了重大的道德问题,必须加以解决,以确保负责任地部署 AI 系统。本文深入探讨了生成式 AI 的社会影响,例如大型语言模型和深度伪造,并仔细研究了它们带来的道德挑战,包括偏见的传播、错误信息的传播和对人类能动性的破坏。我们提出了一个强调透明度、问责制、安全性和人为监督的道德框架来应对这些挑战。实施该框架的建议包括对合成媒体进行水印等技术措施和平衡监管与促进有益创新的政策干预。通过倡导将道德考虑纳入技术设计和公司治理的综合方法,本文旨在促进符合社会价值观和人权的可信赖 AI 系统的开发。
恶意演员采用生成的AI技术仍然有限。但是,随着意识和能力的发展,我们希望许多利益相关者都有不同动机的动机。尤其是,我们预见到恶意的演员将继续利用公众在区分真实和虚假内容方面的困难,在复杂形式的欺骗形式的帮助下,例如合成谎言的嵌套和构成深层蛋糕的嵌套,从而使AI生成的输出在内容的层面中建立在内容的层面中,这些层次有助于构建一个构造的叙述性叙事,但构造了构造的叙事。确实,生成AI确实有可能显着增强恶意演员的能力,从而使他们能够有效地产生更高的现实内容,但现有的大部分分析仍然限于在线合成内容的数量或现实性的问题。但是,即使是在关键时刻有效的有效目标,也可能会播种损害的可能性,即使是在关键时刻有效的目标,尤其是在有效的目标时,尤其是针对性的AI含量。
本文件涵盖了基于人工智能的多媒体身份表征操纵。由于在将人工智能应用于生成或修改以不同媒体格式(特别是音频、视频和文本)表示的数据的问题方面取得了重大进展,出现了新的威胁,这些威胁可能在各种情况下导致重大风险,从个人诽谤和使用虚假身份开设银行账户(通过攻击生物特征认证程序)到影响舆论的活动。人工智能技术可用于操纵真实的多媒体身份表征或创建虚假的多媒体身份表征。此类操纵的可能输出包括但不限于视频或音频文件,这些文件显示人们做或说他们从未做过或说过的事情。由于通常使用深度神经网络 (DNN) 来生成此类输出,因此它们通常被称为“深度伪造”。
本文档解决了基于AI的多媒体身份表示的问题和问题。由于将AI应用于以不同媒体格式(尤其是音频,视频和文本)代表的生成或修改数据的问题,因此出现了新的威胁,这些威胁可能会导致各种环境中的重大风险,范围从个人诽谤,从银行账户开设虚假身份(通过攻击虚假身份)(通过对生物身份验证程序的攻击)到竞选活动的攻击到竞争的信息,到竞争性的信息进行了虚假的信息,以置于虚假信息中。AI技术可用于操纵真实的多媒体身份表示或创建假的身份。此类操作的可能输出包括视频或音频文件,这些视频或音频文件表明人们在做或说出他们从未做过或实际上说过的事情。由于通常使用深层神经网络(DNN)来产生此类输出,因此通常称为“深击”。
自 2018 年以来,PAI 一直通过与行业、媒体、民间社会和学术利益相关者的合作,致力于制定有关深度伪造和其他合成媒体的规范性指导——包括对深度伪造检测机器学习竞赛的管理、对观众如何反应被操纵的媒体标签的研究,甚至如何思考给 AI 内容加水印。2023 年 2 月,PAI 发布了《合成媒体负责任实践:集体行动框架》,这是一项技术政策,旨在探索那些创建、开发和分发合成媒体的人如何负责任地做到这一点。这项工作源于一个协作起草过程,该过程有 100 多个全球利益相关者参与,他们正在考虑一套共同的价值观、策略和实践,以对合成媒体进行负责任的治理。该框架得到了 18 家领先的技术、民间社会和媒体机构的支持,包括 OpenAI、BBC、Bumble、Adobe、TikTok、WITNESS 等。
担任公职人员已经感受到这些新技术的影响,因为他们越来越频繁地成为机器人、深度伪造和其他新兴工具的目标,而这些工具反过来又侵蚀了知情讨论,并日益模糊了应该和不应该被信任的客观现实之间的界限。本手册全面概述了虚假信息,包括其不同形式和传播虚假信息的各种技巧。它还介绍了人工智能和合成媒体的基础知识,包括它们在选举周期内外的潜在应用和对民主的影响。本手册还提供了打击虚假信息的有效策略,并指导议员如何与其他利益相关者(包括民间社会、媒体和科技公司)合作,制定全面有效的政策和监管/立法框架来应对虚假信息的挑战,以及如何在更个人的层面上采取措施保护自己的在线形象和沟通渠道。
随着人工智能 (AI) 的快速发展,我们最重要的任务之一是确保人工智能与我们的价值观保持一致——这项技术将带来新发现、改善我们共同的人类经验并维护我们的民主。我们必须确保美国不仅在开发更新、更强大的模式方面领先世界,而且在建立保护我们价值观和保障我们权利的护栏方面也领先世界。仅在过去几年中,我们就看到了人工智能带来的巨大好处和风险。人工智能可以检测危险疾病、分析卫星图像以改善灾难响应、推荐我们可能喜欢的内容并生成改善我们生活的文本和图像。但人工智能也可能产生错误信息、产生深度伪造、加剧偏见、危及我们的安全等等。随着人工智能变得越来越强大,我们的法律和机构必须做好适应的准备。