摘要 — 技术的最新发展为我们带来了令人惊叹的音频合成模型,如 TACOTRON 和 WAVENETS。另一方面,它也带来了更大的威胁,例如语音克隆和深度伪造,这些威胁可能无法被发现。为了应对这些令人担忧的情况,迫切需要提出能够帮助区分合成语音和实际人类语音并识别这种合成来源的模型。在这里,我们提出了一个基于卷积神经网络 (CNN) 和双向循环神经网络 (BiRNN) 的模型,有助于实现上述两个目标。使用双向 RNN 和 CNN 利用 AI 合成语音中存在的时间依赖性。该模型通过将 AI 合成音频与真实人类语音进行分类,错误率为 ≃ 1.9%,并以 ≃ 97% 的准确率检测底层架构,其表现优于最先进的方法。
2024 年的《培育原创、促进艺术和保障娱乐安全(禁止假冒)法案》将要求个人或公司对制作、托管或共享个人在视听作品、图像或录音中表演的数字复制品承担损害赔偿责任,而该个人从未真正出现或以其他方式获得批准——包括由生成人工智能 (AI) 创建的数字复制品。托管未经授权复制品的在线服务必须在收到权利人的通知后删除该复制品。为公认的《第一修正案》保护提供了例外,例如纪录片和传记作品,或出于评论、批评或模仿等目的。该法案还将在很大程度上取代处理数字复制品的州法律,以创建可行的全国标准。发起人:参议员 Coons (D-DE);Blackburn (R-TN);Klobuchar (D-MN);蒂利斯 (R-NC) 最新行动:7/31/24 - 提交并提交给参议院 JUD。
本文介绍了政治深度伪造事件数据库 (PDID),这是一个政治上显著的深度伪造的集合,包括合成视频、图像和不太复杂的“廉价伪造”。该项目的推动因素包括政治中生成式人工智能的兴起、持续的应对危害的政策努力以及将人工智能事件与政治传播研究联系起来的需要。该数据库包含政治深度伪造内容、元数据和研究人员编码的描述符,这些描述符来自政治学、公共政策、传播和错误信息研究。它旨在帮助揭示政治深度伪造的普遍性、趋势和影响,例如那些以主要政治人物或事件为特色的深度伪造。PDID 可以对深度伪造的使用提供见解,协助监管,进行深入分析,支持事实核查和建立信任的努力,并提高对政治深度伪造的认识,从而使政策制定者、研究人员、记者、事实核查人员和公众受益。它适用于媒体效应、政治话语、人工智能伦理、技术治理、媒体素养和对策方面的研究和应用。
在什么情况下,人工智能生成的内容(例如深度伪造)会侵犯人格权、隐私权和/或名誉权?人工智能可以成为值得版权或专利保护的作者或发明人吗?它可以或应该成为人类的共同作者/发明人吗?(请参阅此处,了解有关此问题的一些先前讨论。)生成人工智能公司和/或使用其产品的公司是否应对“幻觉”(不正确/虚假/误导性结果)造成的损害负责?使用作品训练人工智能是否公平交易?如果您的作品被用于训练人工智能,您应该获得什么补偿?人工智能可以用于法庭或政府决策吗?在什么条件下?(有关行政决策中人工智能的讨论,请参见此处。)在需要征得同意的法律领域,披露将使用人工智能是否是知情同意的必要条件?如果人工智能是造成用户伤害的产品的一部分,谁应该对这种伤害负责?人工智能可以充当“专家”证人吗?无法解释的人工智能是一种故意视而不见的形式吗?
2024 年的《培育原创、促进艺术和保障娱乐安全(无假冒)法案》将要求个人或公司对制作、托管或分享个人在视听作品、图像或录音中表演的数字复制品承担损害赔偿责任,而个人从未真正出现或以其他方式获得批准——包括由生成人工智能 (AI) 创建的数字复制品。托管未经授权复制品的在线服务必须在收到权利人的通知后删除该复制品。为公认的《第一修正案》保护规定了例外情况,例如纪录片和传记作品,或出于评论、批评或戏仿等目的。该法案还将在很大程度上取代州法律中关于数字复制品的规定,以制定可行的全国标准。发起人:参议员 Coons (D-DE);Blackburn (R-TN);Klobuchar (D-MN);Tillis (R-NC) 最新行动:7/31/24 - 提交并提交参议院 JUD。
当我们思考未来人类和人工智能合作进行创造性活动时,我们会思考生成模型[40、41、51、53、60] 会如何影响现有业务并可能创造出新业务。虽然深度伪造和与媒体和艺术相关的生成人工智能突破最近引起了人们的注意和想象[2、23、27、28、45],但总体而言,该领域在商业应用方面还处于起步阶段。在本文中,我们采取了一种逆向的商业案例方法,并从“坏人”的角度提出了商业“滥用”案例。使用一种称为设计虚构[8、18、19、48–50]的做法,我们与精通人工智能技术的软件工程师进行了交流。我们提供了三个半页的虚构故事,讲述了生成技术可能产生的有害应用,作为我们共同创作练习中使用的探针。当我们指导工程师探索
《人工智能法案》的范围以两种方式威胁欧盟的创新生态系统。第一个也是最重要的是“人工智能”的定义。第二个是“高风险”的定义。委员会在没有解释的情况下创建了八个“高风险”类别(在第 7 条中暗示了它将如何添加到列表中),这些类别将承担沉重的负担。通过对每个类别施加同等负担,该法案未能认识到这些类别之间以及它们内部的重要差异。例如,用于维护公用事业的人工智能(“关键基础设施的管理和运营”)与用于评估个人获得公共服务的人工智能(“获得和享受基本私人服务和公共服务和福利”)的处理方式相同,尽管这些类别的风险状况不同。同样,在执法类别中,用于检测深度伪造的人工智能与用于评估刑事刑期长度的人工智能同样具有风险。这不是基于风险的方法。
“人工智能时代”标志着人工智能技术正在改变行业和社会的时期,其推动力是机器学习、深度学习和其他人工智能相关领域的快速发展。虽然人工智能前景广阔,但它也引发了对道德影响的担忧,包括隐私、偏见和工作流失。特别是生成式人工智能,因其能够自主创建新内容的能力而引起了广泛的兴趣。然而,它也存在风险,例如制造深度伪造和传播错误信息。生成式人工智能的滥用可能会造成严重后果,包括声誉受损和社会动荡。随着技术的不断进步及其在各个领域的应用不断增长,人工智能的治理,特别是在生成式人工智能的背景下,变得越来越重要。在本摘要中,我们探讨了管理人工智能所面临的挑战和机遇、生成人工智能可能被滥用的方式,以及企业、客户和消费者在塑造人工智能的道德和负责任使用方面的责任。
《人工智能法案》的范围以两种方式威胁欧盟的创新生态系统。第一个也是最重要的是“人工智能”的定义。第二个是“高风险”的定义。委员会在没有解释的情况下创建了八个“高风险”类别(在第 7 条中暗示了它将如何添加到列表中),这些类别将承担沉重的负担。通过对每个类别施加同等负担,该法案未能认识到这些类别之间以及它们内部的重要差异。例如,用于维护公用事业的人工智能(“关键基础设施的管理和运营”)与用于评估个人获得公共服务的人工智能(“获得和享受基本私人服务和公共服务和福利”)的处理方式相同,尽管这些类别的风险状况不同。同样,在执法类别中,用于检测深度伪造的人工智能与用于评估刑事刑期长度的人工智能同样具有风险。这不是基于风险的方法。
目的:药品序列化是制药行业中的一种流程,它为在分销链中跟踪和验证药品提供了一种安全的解决方案。每个药品单元的唯一识别号有助于识别和打击假冒产品。本文旨在强调序列化实施作为打击全球假药现象的创新工具的优势。方法:全世界都投入了大量精力来加强药品识别。分析方法、新实验室设备的开发、数字解决方案和区块链技术是未来的新方向。此外,需要在国际层面上将制药行业、分销和药房之间的立法联系起来。结果:应在负责实体之间建立良好的合作关系,以保护公众健康并促进患者获得安全药物。欧盟实施的针对假药的指令、世界卫生组织发起的全球监测和监视系统或国际“打击假药”运动就是很好的例子。结论:需要制药行业和执法部门之间进行有效的联合努力。假药是对全球公共健康的威胁,需要实施统一的药品序列化系统作为理想的解决方案。