deepfake关键词检索结果

AI Deepfakes搅动全球信托问题

AI Deepfakes Stir Global Trust Concerns

这是为何重要的:AI Deepfakes引起了全球信任的关注,因为领导者威胁选举并扩大了错误信息,因此引起了全球信任的关注。

AI Deepfakes搅动全球信托问题

AI Deepfakes Stir Global Trust Concerns

这是为何重要的:AI Deepfakes引起了全球信任的关注,因为领导者威胁选举并扩大了错误信息,因此引起了全球信任的关注。

人们真的很难发现AI生成的Deepfake声音

People are really bad at spotting AI-generated deepfake voices

测试表明,当人们听到真实声音和AI创建的声音的录音时,他们大多未能发现假货 - 引起人们对涉及伪造声音的骗局的担忧

每周评论2025年4月4日

Weekly Review 4 April 2025

Some interesting links that I Tweeted about in the last week (I also post these on Mastodon, Threads, Newsmast, and Bluesky):The latest version of DALL-E is frighteningly good: https://arstechnica.com/ai/2025/03/openais-new-ai-image-generator-is-potent-and-bound-to-provoke/Tools for fighting fake AI

在真实视频中暴露了小但重要的AI编辑

Exposing Small but Significant AI Edits in Real Video

In 2019, US House of Representatives Speaker Nancy Pelosi was the subject of a targeted and pretty low-tech deepfake-style attack, when real video of her was edited to make her appear drunk – an unreal incident that was shared several million times before the truth about it came out (and, potentiall

如何使用AI来创建伤害儿童的显式深击图像

How AI is being used to create explicit deepfake images that harm children

一份新报告令人不安地了解了对年轻人的最新数字威胁:Deepfake裸体。这些是现实的照片和视频,它们已经使用AI技术进行了更改,以在性明确的情况下描绘主题,然后在线传播。 Stephanie Sy在索恩(Thorn)与梅利莎·斯特罗贝尔(Melissa Stroebel)交谈,这是一家致力于在线保护儿童的非营利组织,以了解更多信息。

人工智能驱动的身份欺诈如何造成严重破坏

How AI-driven identify fraud is causing havoc

Deepfake 欺诈、合成身份和 AI 驱动的骗局使身份盗窃更难检测和预防——以下是如何反击

aIDeepFake:一种检测假冒内容的系统

aIDeepFake: система выявления фальсифицированного контента

AI Deepfake 首席执行官 Ekaterina Kornyushina 介绍了一种反伪造系统的开发,该系统可以帮助识别欺诈者用于犯罪的篡改视频和图像。

浑元视频 Deepfakes 的兴起

The Rise of Hunyuan Video Deepfakes

由于本文讨论的部分材料的性质,本文将包含比平常更少的参考链接和插图。人工智能合成社区目前正在发生一些值得注意的事情,尽管其重要性可能需要一段时间才能显现出来。业余爱好者正在训练生成式人工智能视频模型来重现人物的相似之处,[…] 混元视频 Deepfakes 的兴起首先出现在 Unite.AI 上。

“Deepfake” 的难以捉摸的定义

The Elusive Definition of ‘Deepfake’

来自德国的一项引人注目的新研究批评欧盟 AI 法案对“深度伪造”一词的定义过于模糊,特别是在数字图像处理的背景下。作者认为,该法案强调内容与真实人物或事件相似——但可能看起来像是假的——缺乏清晰度。他们还强调,该法案的[…]文章“‘Deepfake’ 的难以捉摸的定义”首先出现在 Unite.AI 上。

OpenAI 推出 Sora:面向所有人的 Deepfakes

OpenAI Launches Sora: Deepfakes for Everyone

重要性:OpenAI 推出 Sora:适合所有人的深度伪造,将创新与负责任使用的道德保障相结合。

反击显式 AI Deepfakes

Fighting Back Against Explicit AI Deepfakes

为什么重要:了解如何通过法律框架、AI 工具、社交媒体政策和公众意识来打击明显的 AI 深度伪造。

科学家说:Deepfake

Scientists Say: Deepfake

现在,眼见不再意味着相信,因为人工智能技术让制作虚假视频、音频和图像变得前所未有的容易。

每周回顾 2024 年 10 月 11 日

Weekly Review 11 October 2024

上周我在推特上发布了一些有趣的链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):我认为警方很容易将自己的错误或操纵归咎于人工智能的错误。当人工智能真的搞砸了,责任又在哪里? https://www.theguardian.com/technology/2024/oct/03/artificial-intelligence-police-reports各公司正在将其 AI 数据中心转移到德克萨斯州,但德克萨斯州的发电能力不足以满足其能源需求:https://www.theregister.com/2024/10/04/texas_dc_po

Deepfakes 和赝品:对自然灾害受害者的新威胁

Дипфейки и фальшивки: новая угроза для жертв стихийных бедствий

飓风海伦已成为网络欺诈者的绝佳掩护。

Deepfakes 可能被定罪

За дипфейки могут ввести уголовную ответственность

建议对涉及深度造假的犯罪行为处以数百万美元的罚款和最高六年的监禁。

Deep-Live-Cam 单图像到 Deepfake 直播

Deep-Live-Cam enskild bild till deepfake live stream

Deep-Live-Cam 对于那些想要探索人工智能生成媒体和 Deepfake 技术可能性的人来说是一个强大的工具。通过遵循安装和使用说明,您可以快速开始创建自己的自定义动画序列或视频内容。然而,重要的是要负责任地使用这个工具,并意识到道德考虑,[…]Deep-Live-Cam 单图像到 Deepfake 直播的帖子首次出现在人工智能新闻上。

Deepfakes 及其对国家安全和国防的危害

Deepfakes and the Dangers to National Security and Defence

出版物作者: 出版日期:2024 年 7 月 23 日概要 人工智能生成的虚假信息以深度伪造的形式出现,包括经过数字处理的视频、音频或图像,已成为新加坡的头条新闻。来自世界各地的案例表明,人工智能生成的深度伪造与网络攻击相结合不仅对选举的完整性和诈骗受害者构成威胁,而且 […] 文章《深度伪造及其对国家安全和国防的危害》首次出现在 RSIS 上。