(b)真实图像数据分布图4:通过U-NET的学习分布的相变。在(a)中,x轴是固有维度上的训练样本数量,而在(b)中,这是训练样本的总数。y轴是GL分数。我们使用(a)k = 2,n = 48和d k从3到6和(b)真实图像数据集CIFAR-10,celeba,ffhq和afhq的MOLRG分布产生的数据样本训练扩散模型。u-net记住训练数据时,GL分数很低,并且在学习基础分布时高。
人类智力的重要方面是能够用更简单的思想构成日益复杂的概念的能力,从而可以快速学习和适应知识。在本文中,我们表明基于能量的模型可以通过直接组合概率分布来表现出这种能力。组合分布的样品对应于概念的组成。例如,给出一个用于笑脸图像的分布,另一个用于男性面孔,我们可以将它们结合起来以产生微笑的男性脸。这使我们能够生成同时满足概念结合,析取和否定的自然图像。我们在自然面和合成3D场景图像的Celeba数据集上评估模型的组成生成能力。我们展示了模型的独特功能的广度,例如能够不断学习并结合新概念或推断图像概念属性的组成。
摘要。扩散模型在图像一般方面具有出色的质量,但以一定的代价。迭代denoising需要许多时间步骤来产生高保真图像。由于目标数据的初始不准确重建,重建误差的积累至关重要的限制。这会导致质量降低,收敛速度较慢。为了解决这些问题,我们提出了补偿抽样,以指导生成目标领域。我们引入了一个用U-NET实施的薪酬术语,该薪酬添加了可忽略的培训间接费用。我们的方法是灵活的,我们将其在基准数据集Cifar-10,Celeba,Celeba-HQ,FFHQ-256和FSG上的无条件生成,面对介绍和面对外划分中的应用。我们的方法始终从图像质量方面产生最先进的结果,同时加速了在训练过程中以最高数量级收敛的转化过程。
生成的神经辐射场(NERF)通过学习一组未经未介绍的图像的分布来综合多视图图像,表现出非常熟练的熟练程度。尽管现有的生成nerf具有在数据分布中生成3D一致的高质量随机样本的才能,但创建单数输入图像的3D表示仍然是一个巨大的挑战。在此手稿中,我们介绍了Zignerf,这是一种创新的模型,该模型执行零击生成的对抗网(GAN)倒置,以从单个脱离分布图像中生成多视图。该模型的基础是一个新型逆变器的基础,该逆变器映射到了发电机歧管的潜在代码中。毫无意义,Zignerf能够将对象从背景中解散并执行3D操作,例如360度旋转或深度和水平翻译。使用多个实数数据集对我们的模型的效率进行验证:猫,AFHQ,Celeba,Celeba-HQ和Compcars。
摘要 - 随着深度学习和计算机视觉的发展,面部检测已得以快速发展。面部检测有多个应用程序域,包括身份身份验证,安全保护,媒体和娱乐。尽管多任务级联的卷积神经网络(MTCNN)具有很高的精度和鲁棒性,但由于真实场景的复杂性和硬件设施的约束,该模型在真实场景中具有大参数和计算开销的缺点。因此,改进的网络模型的开发至关重要。本文通过减少参数和计算开销的数量并使用更好的模型参数来定位面部的关键点来改善MTCNN模型。该模型提高了面部年龄估计的准确性和鲁棒性。宽面和Celeba数据集用于培训。最终的面部检测精度达到98.7%,同时将模型参数的数量减少到相同条件下的70%。该模型满足现代社会对面部检测的应用需求,并证明了改进的网络模型的效率和准确性。
摘要 - 条件变化自动编码器(CVAE)是自动驾驶轨迹预测中最广泛使用的模型之一(AD)。它将驾驶环境与其地面真理的未来之间的相互作用捕获到概率潜在空间中,并使用它来产生预测。在本文中,我们挑战了CVAE的关键组成部分。我们利用了变量自动编码器(VAE)的最新进展,即CVAE的基础,这表明采样过程的简单更改可以极大地使性能受益。我们发现,以确定性的方式从任何学习分布中绘制样本的无味抽样自然可以更适合轨迹预测,而不是潜在的随机随机抽样。我们走得更远,并提供了其他改进,包括更结构化的高斯混合物潜在空间,以及一种新颖的,可能更有表现力的方法来推断CVAE。我们通过在相互作用的预测数据集上评估模型的广泛适用性,超过了最新的状态,以及在Celeba数据集上的图像建模任务,优于基线Vanilla cvae。代码可在以下网址获得:https://github.com/boschresearch/cuae-prediction。
海得拉巴,Telangana摘要:要面对创建的文本是图像重建的文本子域。它不仅会影响公共安全领域的广泛用例,还影响新的研究领域。由于没有可用数据集,因此对面对合成的文本研究很少。到目前为止,在文本到图像生成上完成的工作的最大值依赖于部分训练的Gan's,其中输入句子的语义属性是使用预先训练的文本编码器提取的。这些语义特征后来被用来指导解码器的图像。为了产生逼真的有机视觉效果,我们在研究中介绍了一个完全训练的gan。为了提供更精确,更有效的结果,对图片解码器和文本编码器均经过同时培训。除了建议的方法外,另一个补充是通过LFW,Celeba和本地生成的数据集创建数据集。此外,使用我们的预定义分类标记了收集的数据或信息。已经通过各种研究证明了我们的模型通过从输入短语中产生高质量的图片来表现更好。此外,视觉发现产生了面部图像,以响应提供的查询,进一步增强了我们的实验。索引术语 - 面部生成,公共安全域,数据集,预训练的文本编码器,语义特征,图像解码器,完全训练的gan,文本编码器,LFW,Celeba,本地准备的数据集,标签,实验,实验,优质图像,视觉结果,面部图像,QUERY,QUERY,QUERY。引言从书面描述中综合逼真的图片,作为人工智能研究的重要研究领域,从文本输入中综合面部图像。这项研究努力的大量用途具有很大的潜力,其中最主要的是加强公共安全法规。但是,该领域的进步已被可用数据集的局限性和现有方法的功效所延续。该领域的一种流行技术是使用生成的对抗网络(GAN),这是一种有效的深度学习模型,能够产生高保真图像。以前的作品依赖于经过部分训练的GAN体系结构,其中利用预训练的文本编码器从输入文本描述中提取有意义的数据,并使用这些功能对图片解码器进行培训。在我们的研究中,我们使用经过全面训练的生成对抗网络提供了一种独特的方法,以从文本描述中增强实际面部图像的产生。与早期方法相比,我们的方法同时训练文本编码器和图像解码器以产生更精确和有效的结果。
我们提出了一种针对受保护或敏感因素实施 AI 公平性的新方法。该方法使用双重策略执行训练和表示改变 (TARA) 来缓解 AI 偏见的主要原因,包括:a) 通过对抗独立性使用表示学习改变来抑制数据表示对受保护因素的偏见依赖性;以及 b) 通过智能增强改变训练集以解决引起偏见的数据不平衡,通过使用生成模型,允许通过领域适应和潜在空间操纵对与代表性不足的人群相关的敏感因素进行精细控制。在图像分析上测试我们的方法时,实验表明 TARA 显著或完全消除了基线模型的偏差,同时优于具有相同信息量的其他竞争性消除偏差方法,例如,对于 Eye-PACS,(% 总体准确度,% 准确度差距) = (78.8, 0.5) vs. 基线方法的得分 (71.8, 10.5),对于 CelebA,(73.7, 11.8) vs. (69.1, 21.7)。此外,认识到当前用于评估消除偏差性能的指标的某些局限性,我们提出了新颖的联合消除偏差指标。我们的实验还证明了这些新指标在评估所提出方法的帕累托效率方面的能力。
摘要。生成的对抗网络(GAN)在为各种应用程序(包括涉及敏感信息(例如医疗保健和金融)等敏感信息的数据生成合成数据)中表现出了巨大潜力。但是,当将gan应用于敏感数据集时出现了两个主要问题:(i)模型可以记住培训样本,损害个人的隐私,尤其是当数据包括个人身份信息(PII),以及(ii)缺乏对生成样品的特异性的控制,这限制了其限制其量身定制的用途。为了应对这些挑战,我们提出了一个新颖的框架,该框架将差异隐私与潜在的表示学学习整合在一起,以确保隐私,同时提供对生成数据的特殊性的控制。我们的方法确保合成数据不会揭示单个数据点,并且通过学习有效的潜在代码,它可以生成特定和有意义的数据。我们使用MNIST数据集评估了我们的方法,表明它保留了隐私并证明了隐私 - 实用性权衡取舍,这会导致分类准确性降低。此外,我们强调了计算挑战,因为与标准GAN模型相比,训练过程的时间增加了十倍。最后,我们将方法扩展到Celeba数据集,证明如何控制隐私和特异性以生成高质量的私人合成数据。
摘要 — 机器学习 (ML) 在过去十年中取得了巨大进步,并被应用于各种关键的现实应用。然而,最近的研究表明,ML 模型容易受到多种安全和隐私攻击。特别是,针对 ML 模型的后门攻击最近引起了人们的广泛关注。成功的后门攻击会造成严重后果,例如允许对手绕过关键的身份验证系统。当前的后门技术依赖于在 ML 模型输入上添加静态触发器(具有固定模式和位置),而这些触发器很容易被当前的后门检测机制检测到。在本文中,我们提出了第一类针对深度神经网络 (DNN) 的动态后门技术,即随机后门、后门生成网络 (BaN) 和条件后门生成网络 (c-BaN)。我们的技术生成的触发器可以具有随机模式和位置,从而降低当前后门检测机制的有效性。特别是,基于新型生成网络的 BaN 和 c-BaN 是前两种通过算法生成触发器的方案。此外,c-BaN 是第一种条件后门技术,给定目标标签,它可以生成特定于目标的触发器。BaN 和 c-BaN 本质上都是一个通用框架,为对手提供了进一步定制后门攻击的灵活性。我们在三个基准数据集上对我们的技术进行了广泛的评估:MNIST、CelebA 和 CIFAR-10。我们的技术在后门数据上实现了近乎完美的攻击性能,而效用损失可以忽略不计。我们进一步表明,我们的技术可以绕过当前最先进的后门攻击防御机制,包括 ABS、Februus、MNTD、Neural Cleanse 和 STRIP。