我们介绍了生成图像模型的第一个不可检测的水印方案。无法检测到可确保即使在进行许多适应性查询之后,也没有有效的对手可以区分被水标和未加水标的图像。尤其是,在任何有效计算的度量标准下,无法检测到的水印不会降低图像质量。我们的方案通过使用伪和误差校正代码(Christ and Gunn,2024)选择扩散模型的初始潜在,该策略保证了不可检索性和鲁棒性。我们在实验上证明,使用稳定的扩散2.1,我们的水印是质量的和稳健的。我们的实验验证,与我们测试的事先方案相比,我们的水印不会降低图像质量。我们的实验也证明了鲁棒性:现有的水印去除攻击无法从图像中删除我们的水印,而不会显着降低图像的质量。最后,我们发现我们可以在水痕迹中强牢固地编码512位,当图像未受到水印去除攻击时,最多可达2500位。我们的代码可在https://github.com/xuandongzhao/ prc-watermark上找到。
摘要:联合学习(FL)是一个分布式范式,它使多个客户能够在不共享其敏感本地数据的情况下协作训练模型。在这种隐私敏感的环境中,同态加密(HE)通过对加密数据启用计算来起重要作用。这阻止了服务器在聚合过程中进行逆向工程模型更新,以推断私人客户数据,这是在医疗保健行业(患者conditions contions contementies contementies contementions pmagemation is Pamentaint''的情况下的重要关注。尽管有这些进步,但FL仍容易受到培训阶段恶意参与者的知识产权盗窃和模型泄漏的影响。为了抵消这一点,水标作为保护深神经网络(DNNS)的知识产权的解决方案。但是,传统的水印方法与HE不兼容,这主要是因为它们需要使用非溶液功能,而HE并非本地支持。在本文中,我们通过提出单个同型加密模型上的第一个白色框DNN水印调制来解决这些挑战。然后,我们将此调制扩展到符合他处理约束的服务器端FL上下文。我们的实验结果表明,所提出的水印调制的性能等效于未加密域上的水印。
生成的AI(Genai)技术,例如语言模型(LMS)和扩散模型,具有令人印象深刻的功能。这些功能包括文本学习,代码完成,文本到图像生成以及文档和代码聊天。然而,Genai技术也用于邪恶目的(例如,产生伪造的推文,产生攻击和有害散文)。To protect against such use cases, a large body of work has focused on detecting AI-generated content (Lavergne et al., 2008; Beresneva, 2016; Gehrmann et al., 2019; Zellers et al., 2019; Mitchell et al., 2023; GPTZero, 2023; Hendrik Kirchner et al., 2023).问题是:给定内容C,C是由特定的Genai工具生成的,例如GPT-4(OpenAI,2023),Gemini(Google DeepMind,2024)或稳定的扩散(Rombach等,2022)?非正式地,我们想要“ Genai Turing测试”。目前,试图检测任意AI生成的文本的主要方法是训练另一个AI模型以执行检测(Zellers等,2019; Mitchell等,2023; Gptzero,2023; Hendrik Kirchner等人,2023年,2023年)。此方法提出了一个关键的假设:AI生成的文本具有可通过AI识别的嵌入功能。这个假设的关键问题是,生成模型是明确设计的,以产生很难与自然内容(由人类或自然产生的)区分的现实内容。结果,随着生成模型的改善,任何“黑盒”检测方案都将遭受高误报和/或假阴性率。这些水印技术改变了生成过程,将“信号”嵌入生成的内容中。可用的探测器,例如Gptzero(Gptzero,2023)无法保证正确性 - 例如,作者直接指出,不应使用其工具引起的检测来谴责学生。为了避免这个基本问题,最近的一项工作(Aaronson,2023; Kirchenbauer等,2023; Christ等,2024; Kuditipudi等,2024)采取了另一种方法来检测AI含量。检测过程衡量信号:如果信号足够强,则可能是水标水标的。特别是Christ等人的加密方法。(2024)实现正式的完整概念(将检测到任何水印的文本),健全性(一个人不知道秘密而不能在文本上加水印)和失真(水印不会改变输出分布)。最后,这些水印
i作为上述研究论文/文章的作者,在此处宣布本文的内容是由我准备的,如果任何具有版权问题或专利的人或其他与内容相关的任何人,我将始终对任何问题负有法律责任。出于我在网站 /修正案 /更新上的研究论文隐身的原因,我在同一日期将论文重新提交出版。如果我给出的任何数据或信息不正确,我将始终承担法律责任。根据我的全部责任,合法和正式的责任使出版商(出版商)认识到,我的指南(如果有)或专家对我的论文进行了检查,以确保纸张在技术上是正确的,并且没有未接受的窃,而hentriacontane确实是我的。如果出现任何问题,与我的大学/学院/机构/结构/结构或格式/重新提交/提交/版权/专利/提交有关任何更高学位或职位/主要数据/二级数据问题的我的大学/学院/机构/结构/结构/结构/repumbersion/repumbersion/repumbise/formabrise/corpright/formating/repumbersing/repumbermisition/formating/cormentation/cormentation/cormentation/tociallist/toculational nake/decuntication/decuntication/presseriation/dive n。我将对任何法律问题负责/完全负责。我被告知,由于某些技术故障或黑客攻击,网站上的大部分数据都是无形的,不可见的或消失的,因此,对于在网站上获取论文时会遇到麻烦的学者/学生,重新提交的过程就存在。我接受这样一个事实,即作为本文的内容和重新提交法律责任和原因只是我的,而发行商(AIRO International Journal/Airo National Research Journal)从不负责。在我的论文重新提交时,我承担了所有法律和正式责任,如果我隐藏或不提交我的原始文件的副本(Andhra/drive Lide Cline/任何身份证证明和照片),即使出版商的需求可能会被拒绝或从网站上删除或从网站上删除,任何时间都不会考虑验证。我还声明,如果发布者发现任何复杂或错误或其他隐藏或实施的东西,我的论文可能会从网站上删除,或者可能在我的论文中提到的备注/现实的水标。即使发现任何非法出版商也可能对我采取法律诉讼,Mansi Shrivastava
生成的AI(Genai)技术,例如语言模型(LMS)和扩散模型,具有令人印象深刻的功能。这些功能包括文本学习,代码完成,文本到图像生成以及文档和代码聊天。然而,Genai技术也用于邪恶目的(例如,产生伪造的推文,产生攻击和有害散文)。To protect against such use cases, a large body of work has focused on detecting AI-generated content (Lavergne et al., 2008; Beresneva, 2016; Gehrmann et al., 2019; Zellers et al., 2019; Mitchell et al., 2023; GPTZero, 2023; Hendrik Kirchner et al., 2023).问题是:给定内容C,C是由特定的Genai工具生成的,例如GPT-4(OpenAI,2023),Gemini(Google DeepMind,2024)或稳定的扩散(Rombach等,2022)?非正式地,我们想要“ Genai Turing测试”。目前,试图检测任意AI生成的文本的主要方法是训练另一个AI模型以执行检测(Zellers等,2019; Mitchell等,2023; Gptzero,2023; Hendrik Kirchner等人,2023年,2023年)。此方法提出了一个关键的假设:AI生成的文本具有可通过AI识别的嵌入功能。这个假设的关键问题是,生成模型是明确设计的,以产生很难与自然内容(由人类或自然产生的)区分的现实内容。结果,随着生成模型的改善,任何“黑盒”检测方案都将遭受高误报和/或假阴性率。这些水印技术改变了生成过程,将“信号”嵌入生成的内容中。可用的探测器,例如Gptzero(Gptzero,2023)无法保证正确性 - 例如,作者直接指出,不应使用其工具引起的检测来谴责学生。为了避免这个基本问题,最近的一项工作(Aaronson,2023; Kirchenbauer等,2023; Christ等,2024; Kuditipudi等,2024)采取了另一种方法来检测AI含量。检测过程衡量信号:如果信号足够强,则可能是水标水标的。特别是Christ等人的加密方法。(2024)实现正式的完整概念(将检测到任何水印的文本),健全性(一个人不知道秘密而不能在文本上加水印)和失真(水印不会改变输出分布)。最后,这些水印
