必须负责任地使用 GenAI,不得将其用于故意欺骗或伪造。这包括尽可能检查输出是否准确且无偏见。严禁不当使用,例如创建 deepfakes 4 或生成误导性内容。所有用户在共享或发布生成的内容时必须始终明确披露 GenAI 的使用情况。在课程中使用 GenAI 的学生必须确保使用是允许的(请参阅大学对 GenAI 和与学术不端行为和多样性有关的程序以及工作尊严和学习政策)。在研究和/或工作领域中使用 GenAI 的同事必须确保使用是允许的,并且他们对 GenAI 的使用持开放态度。除非另有书面约定,否则大学拥有通过公司系统(例如 Microsoft Office 或 Blackboard VLE)使用 GenAI 创建的所有知识产权。
DeepFake Technology使用AI来创建操纵媒体,对社交媒体平台上的信息完整性构成了重大威胁。在印度,Deepfake内容的兴起呈指数增长,尤其是在政治和娱乐领域,假新闻和AI生成的视频已经风靡一时,导致了错误的信息。主要目的是开发一个可靠的AI模型,该模型可以准确地检测到社交媒体平台上的深击内容,重点是使用FastText Embeddings识别机器生成的推文。传统方法涉及根据预定义的规则和关键字匹配的社交媒体帖子的人类审核,事实检查机构以及手动过滤。这些方法是耗时的,而且通常不准确,缺乏管理大量在线内容的可扩展性。手动检测深摄影和AI-AI-I-Actuct含量非常低效,容易出现错误,并且无法实时处理大量社交媒体数据。因此,在被识别或删除之前,有害和误导性信息可能会广泛传播。随着社交媒体在塑造公众舆论的日益影响,这项研究背后的动机是打击错误信息和维护在线话语的完整性。特别是深度学习模型可以通过自动化社交媒体内容的分析来显着改善对深击的检测。fastText嵌入将将推文转换为有意义的单词向量,而深度学习模型可以应用于对推文是人类生成还是AI生成的推文。与传统方法相比,这种方法提供了实时检测,提高准确性和可伸缩性。
它还可能对民主构成威胁;人工智能已经被指责根据一个人以前的在线行为创建在线回音室,只显示一个人喜欢的内容,而不是创造一个多元化、平等可及和包容性的公共辩论环境。它甚至可以用于制作极其逼真的假视频、音频和图像,即所谓的深度伪造,这可能会带来财务风险、损害声誉并挑战决策。所有这些都可能导致公共领域的分离和两极分化,并操纵选举。
摘要 - 综合语音构成中的进步,包括文本到语音(TTS)和语音转换模型(VC)模型,允许产生令人信服的合成声音,通常称为音频深击。这些深击构成了日益增长的威胁,因为对手可以在社交媒体或绕过语音身份验证系统上使用它们来模仿个人,特别是突出的人物,从而产生广泛的社会影响。最先进的验证系统有效地检测语音深击的能力令人震惊。我们提出了一种新型的音频深击检测方法Voiceradar,它通过物理模型增强了机器学习,以近似音频样品中的频率动力学和振荡。这显着增强了检测能力。Voiceradar利用了两个主要的物理模型:(i)多普勒效应了解音频样品的频率变化和(ii)鼓头振动以将复杂的音频信号分解为组件频率。语音形式通过应用这些模型来识别音频信号中的微妙变化或微频。这些微观频率是聚合以计算观察到的频率的,从而捕获了音频的独特签名。该观察到的频率集成到机器学习算法的损耗函数中,从而使算法能够识别将人类生产的音频与AI生成的音频区分开的不同模式。我们构建了一个新的不同数据集,以全面评估Voiceradar,其中包含来自领先的TTS和VC模型的样本。我们的结果表明,语音的表现优于准确识别AI生成的音频样品的现有方法,展示了其作为音频深击检测的强大工具的潜力。
摘要 - 使用深层生成模型生成的深层效果或合成图像对在线平台构成了严重的风险。这触发了几项研究工作,以准确检测DeepFake图像,在公开可用的DeepFake数据集上取得了出色的性能。在这项工作中,我们研究了8个州的探测器,并认为由于最近的两个发展,他们还远未准备好部署。首先,轻巧的方法的出现可以自定义大型生成模型,可以使攻击者能够创建许多自定义的发电机(创建深层效果),从而实质上增加了威胁表面。我们表明,现有的防御能力无法很好地推广到当今公开可用的用户定制的生成模型。我们讨论了基于内容不足的功能的新机器学习方法,并进行集成建模,以提高对用户定制模型的概括性能。第二,视觉基础模型的出现 - 经过广泛数据训练的机器学习模型,可以轻松地适应几个下游任务 - 攻击者可能会滥用攻击者来制作可以逃避现有防御措施的对抗性深击。我们提出了一次简单的对抗性攻击,该攻击通过仔细的语义操纵图像内容来利用现有的基础模型在不增加任何对抗性噪声的情况下制作对抗性样本。我们强调了针对我们的攻击的多种防御能力的脆弱性,并探索了利用高级基金会模型和对抗性训练来防御这种新威胁的方向。
在过去十年中,人工智能 (AI) 的技术进步和社会接受度巨大。目前,AI 几乎在生活的各个方面都占有一席之地。AI 软件(个性化推荐系统、自动风险评估系统、图像分析等)已经变得无处不在,并越来越多地嵌入智能对象中,例如 Alexa 或 Siri 等语音助手、智能相机、无人机和自动驾驶汽车。AI 既用于分类(“社交分类”),也用于创建(例如“深度伪造”)。本课程将向参与者介绍围绕社会采用 AI 的最突出的法律辩论。本课程分为四个主题部分:
1 Krystal Hu,ChatGPT 创下用户群增长最快纪录 - 分析师报告,路透社 (2023 年 2 月 2 日),https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/。2 请参阅 Nick Routley,什么是生成式 AI?AI 解释,世界经济论坛 (2023 年 2 月 6 日),https://www.weforum.org/agenda/2023/02/generative-ai-explain-algorithms-work/。 3 请参阅 Matthew F. Ferraro 的《解码 Deepfakes》,美国国家安全研究所 (2020 年 12 月 16 日),https://nationalsecurity.gmu.edu/ddf/。4 请参阅 Kindra Cooper 的《OpenAI GPT-3:你需要知道的一切》,PRINGBOARD (2021 年 11 月 1 日),https://www.springboard.com/blog/data-science/machine-learning-gpt-3-open-ai/;另请参阅《聊天 GPT 如何工作?》,A TRIA I NNOVATION (2023 年 1 月 5 日),https://www.atriainnovation.com/en/how-does-chat-gpt-work/。相比之下,“据估计,10 TB 可以容纳美国国会图书馆的全部印刷藏书,而 1 TB 可以容纳 1,000 份《大英百科全书》。什么是 TB,T ERADATA ,https://www.teradata.com/Glossary/What-is-a-Terabyte 。
促进人工智能发展所需的“人才”多种多样,不仅限于技术专长。例如,解决诸如深度伪造等问题的影响需要了解社会动态、信息素养和教育方法。同样,了解人工智能对工作的影响需要工人的经验和理解,他们可能比技术人工智能专家对组织动态有更好的洞察力。这份中期报告因缺乏对数据标签实践和潜在“竞相追逐底线”相关问题的深入探讨而受到批评,这可能导致公司在工资低、员工保护薄弱的国家寻找工人。更好地理解这些影响可能有助于确定人工智能发展是否等同于经济增长。
摘要 - 新闻明显影响我们的社会。它们会影响消费者,选民和许多其他社会群体。虽然假新闻已经存在了几个世纪,但生成的AI将假新闻带来了新的水平。现在有可能自动创建大量高质量的单独定位假新闻。在另一端,生成的AI也可以帮助检测假新闻。两个领域都很年轻,但发展迅速。本调查提供了对2024年假新闻检测和创建的生成AI的研究和实际使用。遵循结构化文献调查方法,本文综合了以下主题群集中的当前结果1)启用技术,2)创建假新闻,3)案例研究社交媒体作为最相关的发行渠道,4)检测假新闻,以及5)Deepfakes作为即将到来的技术。本文还确定了当前的挑战和开放问题。索引术语 - 生成的人工智能,生成的AI,Genai,假新闻检测,深度学习,信息传播,社交媒体,自然语言处理,NLP,伦理AI,误解,内容创建,合成媒体,信息安全,信息安全性,错误信息的措施。