Loading...
机构名称:
¥ 1.0

逐渐的域适应性(GDA),其中为学习者提供了辅助中间域,在许多情况下已经在理论上和经验上研究了。尽管在关键安全方案中起着至关重要的作用,但GDA模型的对抗性鲁棒性仍然没有探索。在本文中,我们采用了有效的渐进自我训练方法,并用副本自我训练(AST)替换香草自我训练。AST首先预测未标记的数据上的标签,然后对手在伪标记的分布上训练模型。有趣的是,我们发现逐渐的AST不仅提高了对抗性的准确性,而且可以提高目标域的清洁准确性。我们揭示这是因为当伪标签包含一部分不正确标签时,对抗性训练(AT)的性能要比标准训练更好。因此,我们首先介绍多类分类设置中逐渐AST的概括误差界限。然后,我们使用子集总和问题的最佳值在真实分布和伪标记分布上的对抗误差上桥接标准误差。结果表明,在具有不正确的伪标签的数据上,可能会获得比标准培训更紧密的结合。我们进一步提出了有条件的高斯分布的一个例子,以提供更多的见解,说明为什么逐渐的AST可以提高GDA的清洁精度。

对抗性自我训练改善了渐进域适应性的鲁棒性和概括

对抗性自我训练改善了渐进域适应性的鲁棒性和概括PDF文件第1页

对抗性自我训练改善了渐进域适应性的鲁棒性和概括PDF文件第2页

对抗性自我训练改善了渐进域适应性的鲁棒性和概括PDF文件第3页

对抗性自我训练改善了渐进域适应性的鲁棒性和概括PDF文件第4页

对抗性自我训练改善了渐进域适应性的鲁棒性和概括PDF文件第5页

相关文件推荐

2023 年
¥3.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥2.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2022 年
¥1.0