布鲁塞尔,2024 年 12 月 9 日——人工智能给印度带来了政策困境。一方面,出口竞争力取决于全国范围内部署提高生产力的技术。印度服务和咨询公司必须采用人工智能技术,才能保持其在全球市场的领先地位。另一方面,人们还担心自动化对社会凝聚力的影响、歧视性算法决策以及“深度伪造”的风险。
1. 参见 31 USC § 5312(a)(2);31 CFR § 1010.100(t)。2. 深度伪造媒体或“deepfakes”是一种合成内容,它使用人工智能/机器学习来创建逼真但不真实的视频、图片、音频和文本。参见美国国土安全部 (DHS),“深度伪造身份的威胁日益增加”(“DHS 报告”)。正如 DHS 进一步指出的那样,深度伪造和合成媒体的威胁并非来自用于创建它们的技术,而是来自人们自然倾向于相信他们所看到的内容,因此,深度伪造和合成媒体不需要特别先进或可信就可以有效传播错误信息或虚假信息。3. 人工智能是一种基于机器的系统,可以针对一组给定的人类定义目标做出影响真实或虚拟环境的预测、建议或决策。 “生成式人工智能”是指模拟输入数据的结构和特征以生成衍生合成内容的人工智能模型类。这可以包括图像、视频、音频、文本和其他数字内容。请参阅白宫《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》(2023 年 10 月 30 日)(“EO 14110”)。4. 美国财政部(财政部),《财政与人工智能》。5. 身份相关漏洞利用是金融机构面临的主要网络犯罪和欺诈问题。金融犯罪执法局于 2024 年 1 月制定并发布了一份《身份金融趋势分析》,概述了在开户、访问账户和交易过程中考虑各种身份流程漏洞利用的框架。请参阅金融犯罪执法局,“金融趋势分析:身份相关可疑活动:2021 年威胁与趋势”(2024 年 1 月 9 日)。
摘要。在检测与训练中存在类型的深层时,最新研究的最新研究表明了有希望的结果。但是,它们概括地看不见的深泡沫的能力受到限制。这项工作从一个简单的原则中改善了可概括的深层检测:理想的检测器将任何包含在真实面孔中发现的异常的面孔分类为假货。也就是说,检测器应学习一致的真实外观,而不是在训练集中不适用于看不见的深击中的假模式。在这一原则的指导下,我们提出了一项名为“真实外观建模”(RAM)的学习任务,该任务通过从稍微干扰的面孔中恢复原始面孔来指导模型学习真实的外观。我们进一步提出了面部障碍,以产生令人不安的面孔,同时保留了恢复的原始信息,这有助于模型学习真实面孔的细粒度外观。广泛的实验证明了建模真实外观以发现更丰富的深击的有效性。我们的方法通过多个流行的DeepFake数据集的大幅度传递了现有的最新方法。
最近的研究表明,深度学习模型可以根据种族和性别等受保护的类别进行区分。在这项工作中,我们评估了深度伪造数据集和检测模型在受保护子群体中的偏差。使用按种族和性别平衡的面部数据集,我们检查了三种流行的深度伪造检测器,发现不同种族之间的预测性能存在很大差异,不同子群体之间的错误率差异高达 10.7%。仔细观察就会发现,广泛使用的 FaceForensics++ 数据集绝大多数由白种人组成,其中大多数是白种人女性。我们对深度伪造的种族分布的调查显示,用于创建深度伪造作为正面训练信号的方法往往会产生“不规则”的面孔——当一个人的脸被换到另一个不同种族或性别的人身上时。这导致检测器学习到前景面孔和假象之间的虚假相关性。此外,当使用 Face X-Rays 的混合图像 (BI) 数据集对检测器进行训练时,我们发现这些检测器会对某些种族群体(主要是亚洲女性)产生系统性歧视。
过去,制作音频、视频和图像错误/虚假信息的能力受到更多限制,例如通过数字方式改变内容(例如,减慢或剪切)。这些方法远没有那么复杂,而且通常可以识别出这些内容已被编辑。23 然而,随着生成式人工智能工具变得更便宜、更易于获取、更易于指挥和使用,合成媒体和深度伪造正变得越来越复杂。这种人工智能生成的合成媒体可以包括图像、音频、代码和视频等。虽然这些工具可以用于用户娱乐,24 但它们也为那些试图改变公众舆论和破坏真实信息来源可信度的人提供了一种工具,包括在重要的公共和政治对话和辩论中。合成媒体和深度伪造可以复制受信任个人的肖像,发表煽动性言论,传播错误/虚假信息,或普遍散播不确定性和不信任。《金融时报》报道称,委内瑞拉使用深度伪造的“新闻”视频传播虚假信息 25 。英国科技公司 Synthesia 被用来制作虚假新闻,并在支持政府的媒体上广泛传播。26 用户必须了解哪些媒体是真实的,哪些是人工智能生成的。如果他们不这样做,就会面临重大风险
公司:Amaris.AI 是一家总部位于新加坡的人工智能和网络安全公司,由前政府高级管理人员领导。Amaris.AI 拥有广泛的项目组合,客户遍布财富管理、政府、电信、物流和零售等不同领域。 项目(1):网络安全风险评估和审计数据分析 该项目将构建一个安全且隐私增强的系统,用于分析网络安全风险评估和审计。该系统利用最新的人工智能技术,通过搜索功能提供语义感知能力。该系统还将能够创建特定于网络安全领域的知识本体。 项目(2):捍卫人工智能系统和打击 DeepFakes 该项目将开发系统和智慧国家框架,以保护人工智能系统免受对抗性和人工智能操作攻击。 2 CyberOwl Pte Ltd
一种名为Deepfakes的新现象在视频操纵中构成了严重的威胁。基于AI的技术已经提供了易于使用的方法来创建极其现实的视频。在多媒体取证的一边,能够个性化这种假件变得更加重要。在这项工作中,提出了一种新的法医技术来检测假和原始视频序列;它基于使用受过训练的CNN,以通过利用光流场来区分视频序列的时间结构中可能的运动差异。获得的结果突出显示了最先进的方法,通常只诉诸单个视频帧。此外,提出的基于光流的检测方案在更现实的跨手术操作方案中还提供了卓越的鲁棒性,甚至可以与基于框架的方法相结合以提高其全球效率。
网络勒索——访问暗黑内容或暗网的用户面临声誉受损的威胁,直到支付赎金为止。 网络恐怖主义——出于政治动机使用计算机和信息技术在社会上造成严重破坏或普遍恐惧。 暗黑内容——匿名代理、深度伪造和元宇宙将看到非法异常内容的升级。让用户遭受网络勒索。 深度伪造——使用深度学习创建令人信服的文本、图像、语音和视频恶作剧,导致虚假内容和假货。 数字加法——鼓励过度和有害行为,使用零售中的推荐系统和“边玩边赚”游戏中的代币化等技术。 经济波动 – 由于不可预测或故意的算法行为而导致的市场风险和危机(参见2010 年的闪电崩盘)。 错误信息 – 不准确或故意误导的信息导致算法偏差,以及由不良或故意偏差的训练数据导致的错误信息。 社会操纵 – 通过人工智能算法和错误信息进行社会和政治操纵。 社会监视 – 利用新兴技术进行监视,例如中国的社会信用体系。 武器化 – 由人工智能驱动的自主武器机器人。
3 人工智能的人权风险 ...................................................................... 6 3.1 隐私 ...................................................................................................... 6 3.2 人工智能互操作性 - 神经技术 ........................................................ 11 3.3 人工智能互操作性 - 元宇宙技术 ........................................................ 16 3.4 面向消费者的聊天机器人 ...................................................................... 20 3.5 环境 ...................................................................................................... 21 3.6 自动化偏见 ............................................................................................. 22 3.7 错误信息、虚假信息和深度伪造 ............................................................. 23 3.8 就业 ...................................................................................................... 30 3.9 偏见和算法歧视 ............................................................................. 31 3.10 残疾人 ............................................................................................. 32
服务。2。道德与偏见问题:AI模型从培训数据中继承了偏见,从而导致歧视。3。数据隐私和网络安全风险:AI驱动的深击和黑客攻击引起了安全问题。4。地缘政治AI军备竞赛:国家争夺AI至上的竞争,导致了科技冷战。5。监管和法律挑战:AI法律难以跟上快速发展的进步。