音频深度伪造对我们日常交流中的信任构成了日益严重的威胁。为此,研究界开发了各种各样的检测技术,旨在防止此类攻击欺骗用户。不幸的是,这些防御措施的创建通常忽略了系统中最重要的元素——用户自己。因此,尚不清楚当前的机制是增强、阻碍还是仅仅与人类对深度伪造的分类相矛盾。在本文中,我们进行了首次大规模的深度伪造检测用户研究。我们招募了 1,200 多名用户,并向他们展示了来自三个被引用最多的深度伪造数据集的样本。然后,我们定量比较性能并定性进行主题分析,以激发和理解用户决策背后的原因以及与机器分类的差异。我们的结果表明,用户正确分类人类音频的比率明显高于机器学习模型,并且在进行分类时依赖语言特征和直觉。然而,用户也经常被对生成音频能力的先入之见所误导(例如,口音和背景声音代表人类)。最后,机器学习模型的缺陷在于
1。ανάγκηκατάρτισης生成的AI模型旨在学习数据中的模式,结构和关系,然后使用这些知识来产生新颖的输出。生成AI中最受欢迎和最广泛使用的技术之一是使用神经网络,尤其是生成的对抗网络(GAN)和变形金刚。生成的AI在各个领域都有广泛的应用程序,包括:文本生成:它可以生成类似人类的文本,该文本用于聊天机器人,内容创建甚至代码生成,以帮助企业进行软件开发。图像生成:生成的AI可以创建具有艺术,娱乐和视觉效果应用的图像,绘画,甚至是深击。音乐和声音发电:它可以创作音乐,产生声音效果,甚至复制声音,这在娱乐行业和游戏中很有用。数据增强:生成AI可以生成合成数据来补充实际数据集,以帮助培训机器学习模型。建议系统:它可以根据用户的喜好为用户创建个性化的内容建议。异常检测:可以使用生成模型来识别数据中非常有用的数据中的异常值或异常。
1。ανάγκηκατάρτισης生成的AI模型旨在学习数据中的模式,结构和关系,然后使用这些知识来产生新颖的输出。生成AI中最受欢迎和最广泛使用的技术之一是使用神经网络,尤其是生成的对抗网络(GAN)和变形金刚。生成的AI在各个领域都有广泛的应用程序,包括:文本生成:它可以生成类似人类的文本,该文本用于聊天机器人,内容创建甚至代码生成,以帮助企业进行软件开发。图像生成:生成的AI可以创建具有艺术,娱乐和视觉效果应用的图像,绘画,甚至是深击。音乐和声音发电:它可以创作音乐,产生声音效果,甚至复制声音,这在娱乐行业和游戏中很有用。数据增强:生成AI可以生成合成数据来补充实际数据集,以帮助培训机器学习模型。建议系统:它可以根据用户的喜好为用户创建个性化的内容建议。异常检测:可以使用生成模型来识别数据中非常有用的数据中的异常值或异常。
随着图像生成器的质量不断提高,深层蛋糕成为社会辩论的一个话题。图像水印允许负责任的模型自动检测和标记其AI生成的内容,从而减轻危害。然而,图像水印中的当前最新方法仍然容易受到伪造和去除攻击的影响。这种脆弱性发生在部分原因是水印会扭曲产生的图像的分布,无意中揭示了有关水印技术的信息。在这项工作中,我们首先根据扩散模型的初始噪声展示了一种无误的水印方法。但是,检测水印需要将图像重建的初始噪声与所有先前使用的初始噪声进行比较。为了减轻这些问题,我们提出了一个两阶段的水印框架,以进行有效检测。在生成期间,我们通过生成的傅立叶模式增加了初始噪声,以嵌入有关我们使用的初始噪声组的信息。为了检测,我们(i)检索相关的噪声组,以及(ii)在给定组中搜索可能与我们的图像相匹配的初始噪声。这种水印方法实现了对大量攻击的伪造的最新鲁棒性和去除。
摘要:本文对生成AI技术的道德挑战进行了系统的审查和跨学科分析(n = 37),强调了诸如隐私,数据保护,版权侵权,错误信息,偏见和社会不平等等重大关注点。生成性AI产生令人信服的深层媒体和合成媒体的能力,威胁到真理,信任和民主价值观的基础,加剧了这些问题。本文结合了包括教育,媒体和医疗保健在内的各个学科的观点,强调了对促进公平和不延续社会不平等的AI系统的需求。倡导一种积极主动的AI道德发展方法,强调建立优先级人权,公平和透明度优先级的政策,准则和框架的必要性。本文要求政策制定者,技术人员和研究人员之间进行多学科对话,以确保负责符合社会价值观和道德标准的负责人的AI发展。强调了以社会上有益和道德上合理的方式解决这些道德问题和倡导者的倡导者的紧迫性,这对管理AI在现代数字时代的道德意义的论述做出了重大贡献。该研究强调了这些挑战的理论和实际含义,并提出了许多未来的研究方向。
在过去的十年中,数字领域已经发展了两个主要现象。一方面,极端主义在互联网上已经大量发展,遍布在线生态系统,拥有与“随机恐怖主义”和“极端主义主流化”相关的各种激进亚文化和社区。另一方面,人工智能(AI)经历了指数的改进:从chatgpt到视频深击,从自动驾驶汽车到面对识别的CCTV系统,一系列的AI技术突然进入了我们的日常生活。本报告探讨了“ AI极端主义”,这是这两种演变的有毒遭遇 - 每种都会自行担心。就像过去的技术进步一样,AI确实(实际上已经是)以各种方式使用来加强极端主义议程。确定各种AI模型随附的许多行动机会,并将其与不同类型的极端主义演员联系起来,我们清楚地概述了AI极端主义的众多方面。基于关于该问题的新生学术和政府文献以及我们自己的经验和理论工作,我们提供了新的类型和概念,以帮助我们组织对AI极端主义的理解,系统地绘制其实例化,并强调利益相关者在反对暴力极端主义中的思维点。
虽然美国的种族多元化程度正在提高,但生成性人工智能和相关技术却有可能破坏真正的代议制民主。如果不加以控制,人工智能将加剧现有的重大挑战,例如种族两极分化、文化焦虑、反民主态度、种族选票稀释和选民压制。合成视频和音频(“深度伪造”)受到了大部分公众的关注,但这只是冰山一角。针对种族的微定位虚假信息、自动选举管理中的种族偏见、歧视性投票限制、针对种族的网络攻击以及阻碍种族正义主张的人工智能监控只是人工智能威胁民主的几个例子。不幸的是,现有法律(包括《投票权法案》)不太可能应对这些挑战。然而,如果政策制定者、活动家和技术公司立即采取行动,这些问题并非不可克服。本文主张对人工智能进行监管,以促进种族包容的民主,提出了为监管人工智能提供框架的新原则,并提供了具体的政策干预措施来说明这些原则的实施。尽管种族是影响美国投票模式的最重要人口因素,但这是第一篇全面识别人工智能对民主造成的种族危害并提出前进方向的文章。
尾注 1. 根据即将发布的报告《妇女、和平与安全、技术与国家安全:我们正在建设什么样的世界?》,作者:Sahana Dharmapuri 和 Jolynn Shoemaker 2. Dan Hendrycks、Mantas Mazeika 和 Thomas Woodside,《灾难性人工智能风险概述》,人工智能安全中心,2023 年 10 月 9 日,https://arxiv.org/pdf/2306.12001.pdf 3. 联合国裁军研究所,《算法偏见和日益自主的技术武器化》,2018 年,https://unidir.org/files/publication/pdfs/ algorithmic-bias-and-the-weaponization-of-increasingly-autonomous-technologies-en-720.pdf 4. Zachary Arnold 和 Helen Toner,《人工智能事故:一种新兴威胁:可能造成什么后果?》会发生什么以及该怎么办”,安全与新兴技术中心”,2021 年 7 月,https://cset.georgetown.edu/publication/ai-accidents-an-emerging-threat/ 5. Ray Acheson,“性别与偏见:性别与杀手机器人有什么关系?”,阻止杀手机器人,2021 年,https://www.stopkillerrobots.org/wp-content/uploads/2021/09/Gender-and-Bias.pdf 6. Dan Hendrycks、Mantas Mazeika 和 Thomas Woodside,“灾难性人工智能风险概述”,人工智能安全中心,2023 年 10 月 9 日,https://arxiv.org/pdf/2306.12001.pdf 7. Nina Jankowicz,“深度伪造的威胁不是假设的。女性每天都能感受到这一点”,《华盛顿邮报》,2021 年 3 月 25 日,https://www.washingtonpost.com/opinions/2021/03/25/threat-deepfakes-isnt-hypothetical-women-feel-it-every-day/ 8. Beatrice Nolan,“OpenAI 测试表明,最新版本的 ChatGPT 告诉 TaskRabbit 员工,它是视障人士,需要帮助解决 CAPTCHA”,《商业内幕》,2023 年 3 月 16 日,https://www.businessinsider.com/gpt4-openai-chatgpt-taskrabbit-tricked-solve-captcha-test-2023-3?IR=T 9. Benjamin Weiser 和 Nate Schweber,“ChatGPT 律师自我解释”,《纽约时报》,2023 年 6 月 8 日, https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanitians.html 10. Lucina Di Meco 和 Kristina Wilfore,“性别虚假信息是一个国家安全问题”,布鲁金斯学会,2021 年 3 月 8 日,https://www.brookings.edu/articles/gendered-disinformation-is-a-national-security-problem/ 11. Nina Jankowicz,“深度伪造的威胁并非假设。女性每天都能感受到这一点”,《华盛顿邮报》,2021 年 3 月 25 日,https://www.washingtonpost.com/opinions/2021/03/25/threat-deepfakes-isnt-hypothetical-women-feel-it-every-day/ 12. Victoria Krakovna 和 Janos Kramar,“对于受过训练的智能体来说,权力寻求是可能且具有预测性的”,DeepMind,2023 年,https://arxiv.org/abs/2304.06528 13. Dan Hendrycks、Mantas Mazeika 和 Thomas Woodside,“灾难性人工智能风险概述”,人工智能安全中心,2023 年 10 月 9 日,https://www.safe.ai/ai-risk#Deception 14. Ray Acheson,“性别与偏见:性别与杀手机器人有何关系?”,Stop Killer Robots,2021 年, https://www.stopkillerrobots.org/wp-content/uploads/2021/09/Gender-and- Bias.pdf 15. 克里斯蒂安·阿隆索、悉达思·科塔里、西德拉·雷曼、“人工智能如何扩大富国与穷国之间的差距”,国际货币基金组织博客,2020 年 12 月 2 日,https://www.imf.org/en/ Blogs/Articles/2020/12/02/blog-how-artificial-intelligence-could-widen-the-gap-between-rich-and-poor-nations 16. Leonardo Nicoletti 和 Dina Bass,“人类有偏见。生成式人工智能甚至更糟糕”,彭博社,2023 年,https://www.bloomberg.com/graphics/2023-generative-ai-bias/
NEUR(2018 年 4 月 19 日),https://www.entrepreneur.com/science-technology/why-everyone-and- everything-on-social-media-is-fake/311421 [https://perma.cc/LLD2-RUZA];Eric Vanman,《我们问 Catfish 为什么他们创建虚假角色来在线欺骗人们》,《S UNDAY T IMES》(2018 年 8 月 2 日),https://www.timeslive.co.za/sunday-times/lifestyle/2018-08-02-we-asked-catfish-why-they- create-fake-personas-to-trick-people-online [https://perma.cc/5WWY-KFYW]; Kate Coleman,《Deepfakes 如何影响文化、隐私和声誉》,STATUS L ABS,https://statuslabs.com/blog/what-is-a-deepfake [https://perma.cc/X9MB-JKRC](上次访问时间为 2024 年 9 月 16 日)。2. 《2019 财政年度国防授权法案》,公共法律号 115-232,§238(g),132 Stat.1636,1697-98(2018)(将人工智能定义为“任何能够从经验中学习的人工系统...当接触到数据集时”或“一套旨在近似完成认知任务的技术,包括机器学习”)。拜登总统最近在《关于安全、可靠和可信赖地开发和使用人工智能的行政命令》第 14,110 号行政命令,88 Fed. Reg. 75,191, 75,193(2023 年 10 月 30 日)中,根据《2020 年国家人工智能计划法案》对“人工智能”进行了定义: “人工智能”一词是指一种基于机器的系统,它可以针对给定的一组人类定义的目标,做出影响现实或虚拟环境的预测、建议或决策。人工智能系统使用机器和人类的输入来——(A)感知现实和虚拟环境;(B)通过自动化分析将这些感知抽象为模型;(C)使用模型推理来制定信息或行动的选项。《2020 年国家人工智能计划法案》,15 USC § 9401(3)。3.命令编号 14,110,88 Fed. Reg. 第 75,195 页(将“生成式人工智能”定义为“一类模拟输入数据的结构和特征以生成衍生合成内容的人工智能模型”,例如“图像、视频、音频、文本和其他数字内容”)。
查尔斯·达尔文的自然选择理论表明,能够生存下来的并不是最强大或最聪明的,而是那些适应能力最强、最能抵御变化的。1 人工智能革命已经到来,尽管人工智能具有无限的美好和实现美好的可能性,但网络犯罪分子仍在不断开发人工智能以用于网络攻击。在争夺统治地位的最终斗争中,人工智能将在网络犯罪分子和网络安全捍卫者之间的军备竞赛中检验达尔文的自然选择理论。如果达尔文的理论是正确的,那么在不断发展的人工智能面前,最能适应和抵御变化的群体(无论是犯罪分子还是捍卫者)将生存下来并蓬勃发展。本文探讨了网络犯罪分子将生成式人工智能武器化和用于犯罪的情况。本文的目的是创建有关该主题的术语资源,解释网络犯罪分子利用的策略和技术,并提供这些技术如何用于利用公司进行网络攻击的示例。通过创建语言和意识,我们可以更好地让我们的组织和社区做好准备,以抵御人工智能驱动的网络攻击。进化的网络犯罪分子善于利用人员、流程和技术来实施网络攻击。截至 2024 年,犯罪分子使用三种常见的人工智能来实施网络攻击:(1) 利用汇总的被盗数据对人类进行社会工程;(2) 创建合成媒体和深度伪造 2 使用音频/视频过滤器冒充另一个人 3 ;(3) 创建恶意代码。4 这种可访问性和独创性的结合对网络防御者提出了艰巨的挑战。