DeepFake关键词检索结果

OpenAI 推出 Sora:面向所有人的 Deepfakes

OpenAI Launches Sora: Deepfakes for Everyone

重要性:OpenAI 推出 Sora:适合所有人的深度伪造,将创新与负责任使用的道德保障相结合。

反击显式 AI Deepfakes

Fighting Back Against Explicit AI Deepfakes

为什么重要:了解如何通过法律框架、AI 工具、社交媒体政策和公众意识来打击明显的 AI 深度伪造。

科学家说:Deepfake

Scientists Say: Deepfake

现在,眼见不再意味着相信,因为人工智能技术让制作虚假视频、音频和图像变得前所未有的容易。

每周回顾 2024 年 10 月 11 日

Weekly Review 11 October 2024

上周我在推特上发布了一些有趣的链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):我认为警方很容易将自己的错误或操纵归咎于人工智能的错误。当人工智能真的搞砸了,责任又在哪里? https://www.theguardian.com/technology/2024/oct/03/artificial-intelligence-police-reports各公司正在将其 AI 数据中心转移到德克萨斯州,但德克萨斯州的发电能力不足以满足其能源需求:https://www.theregister.com/2024/10/04/texas_dc_po

Deepfakes 和赝品:对自然灾害受害者的新威胁

Дипфейки и фальшивки: новая угроза для жертв стихийных бедствий

飓风海伦已成为网络欺诈者的绝佳掩护。

Deepfakes 可能被定罪

За дипфейки могут ввести уголовную ответственность

建议对涉及深度造假的犯罪行为处以数百万美元的罚款和最高六年的监禁。

Deep-Live-Cam 单图像到 Deepfake 直播

Deep-Live-Cam enskild bild till deepfake live stream

Deep-Live-Cam 对于那些想要探索人工智能生成媒体和 Deepfake 技术可能性的人来说是一个强大的工具。通过遵循安装和使用说明,您可以快速开始创建自己的自定义动画序列或视频内容。然而,重要的是要负责任地使用这个工具,并意识到道德考虑,[…]Deep-Live-Cam 单图像到 Deepfake 直播的帖子首次出现在人工智能新闻上。

Deepfakes 及其对国家安全和国防的危害

Deepfakes and the Dangers to National Security and Defence

出版物作者: 出版日期:2024 年 7 月 23 日概要 人工智能生成的虚假信息以深度伪造的形式出现,包括经过数字处理的视频、音频或图像,已成为新加坡的头条新闻。来自世界各地的案例表明,人工智能生成的深度伪造与网络攻击相结合不仅对选举的完整性和诈骗受害者构成威胁,而且 […] 文章《深度伪造及其对国家安全和国防的危害》首次出现在 RSIS 上。

最佳 11 款 Deepfake 裸体制作器(免费和付费)

Best 11 Deepfake Nude Makers (Free & Paid)

近年来,人工智能 (AI) 的快速发展彻底改变了娱乐、安全和个人技术等各个领域。该领域最具争议的发展之一是深度伪造技术的兴起,尤其是深度伪造裸体制作者。这些应用程序利用复杂的人工智能算法来创建逼真但完全人造的图像和视频。本文深入探讨了目前最好的 Deepfake 裸体制作器,探索了它们的功能、底层技术以及它们带来的道德影响。什么是 Deepfake 裸体制作器?Deepfake 裸体制作器是使用深度学习技术生成个人裸照或视频的软件应用程序,通常无需 […]

谷歌:如果不紧急采取行动,大量的 Deepfakes 将会淹没我们

Google: лавина дипфейков накроет нас с головой, если срочно не принять меры

生成式人工智能如何毒害社会?为什么我们忽视当前的问题?

Deepfakes 和驾驭合成媒体的新时代

Deepfakes and Navigating the New Era of Synthetic Media

还记得“假新闻”吗?这个词已经被广泛使用(和滥用),以至于很难记住它最初指的是什么。但这个概念有一个非常具体的起源。十年前,记者开始对大量所谓的“新闻”网站发出虚假、往往是荒唐的说法发出警告 […]The post Deepfakes and Navigating the New Era of Synthetic Media 首次出现在 Unite.AI 上。

链上的 Deepfakes:YouTube 将防止攻击者窃取您的脸

Дипфейки на цепи: YouTube не даст злоумышленникам украсть ваше лицо

有人利用人工智能非法复制你的外表吗?版主会解决的。

Deepfakes 变得更加深入:Synthesia 引入了具有身体的超现实化身

Дипфейки стали еще глубже: Synthesia представляет гиперреалистичные аватары с телами

化身现在可以唱歌、跳舞并在房间里走动。

印度选举充斥着 Deepfakes——但人工智能对民主来说是积极的

Indian Election Was Awash in Deepfakes – But AI Was a Net Positive for Democracy

2024-06-10印度于 2024 年 6 月 5 日结束了全球规模最大的选举,统计了超过 6.4 亿张选票,观察人士可以评估各党派如何使用人工智能技术,以及对其他国家有哪些借鉴意义世界。

Deepfake 诈骗者瞄准了大企业

Дипфейк-мошенники берут в прицел крупный бизнес

他们试图利用深度造假来欺骗世界领先广告公司的负责人。

大学、出版商和期刊需要了解的人工智能安全方面

AI Safety Aspects That Universities, Publishers, and Journals Need to Understand

人工智能安全是指旨在确保以最大限度降低风险和最大限度为人类带来益处的方式开发和部署人工智能系统的研究和实践领域。人工智能安全涉及广泛的问题,包括: 总体而言,人工智能安全的目标是确保以最大限度发挥人工智能技术优势的方式开发和部署人工智能技术,同时将其风险和对个人、社会和更广泛环境的危害降至最低。 人工智能安全研究仍是一个新兴领域,几乎每天都会出现有关安全的新问题和担忧。然而,随着人工智能在学术界不同领域的应用越来越多,利益相关者了解人工智能安全的关键问题非常重要。 数据中毒 数据中毒是一种网络攻击或操纵,旨在破坏用于开发或微调机器学习模型的训练数据。在数据中毒攻击中,攻击者策略性地将恶意或误导

2024/03/26 SXSW 小组重播:真实与否,捍卫数字世界的真实性

2024/03/26 SXSW Panel Replay: Real or Not, Defending Authenticity in a Digital World

您有没有想过您正在观看的视频、您正在查看的照片、甚至电话那头的那个人是否是真实的? Deepfake 不再只是好莱坞的魔法,它们是我们日常生活的一部分,从我们消费的新闻到我们分享的模因,无处不在。在本次小组讨论中,专家们深入探讨了深度伪造的世界,以分析数字欺骗的影响以及我们可以采取哪些措施。

2024/03/14 Deepfake 防御技术已做好商业化、转型的准备

2024/03/14 Deepfake Defense Tech Ready for Commercialization, Transition

随着自动操纵技术变得越来越容易使用,并且社交媒体继续为病毒式内容共享提供成熟的环境,受操纵媒体的威胁正在稳步增加。